JP7122842B2 - Glare suppression and ranging system and method - Google Patents

Glare suppression and ranging system and method Download PDF

Info

Publication number
JP7122842B2
JP7122842B2 JP2018057658A JP2018057658A JP7122842B2 JP 7122842 B2 JP7122842 B2 JP 7122842B2 JP 2018057658 A JP2018057658 A JP 2018057658A JP 2018057658 A JP2018057658 A JP 2018057658A JP 7122842 B2 JP7122842 B2 JP 7122842B2
Authority
JP
Japan
Prior art keywords
light beam
optical
coupled
ranging
reference light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018057658A
Other languages
Japanese (ja)
Other versions
JP2018200302A (en
Inventor
ジャンフェン・ウー
マシュー・ウェイド・パケット
ティエカン・チゥ
グレン・エイ.・サンダース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2018200302A publication Critical patent/JP2018200302A/en
Application granted granted Critical
Publication of JP7122842B2 publication Critical patent/JP7122842B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Modulation, Optical Deflection, Nonlinear Optics, Optical Demodulation, Optical Logic Elements (AREA)

Description

[0001] 本願は、2017年3月27日に出願された米国仮特許出願第62/476967号の権利を主張する。この仮特許出願をここで引用したことにより、その内容全体が本願にも含まれるものとする。 [0001] This application claims the benefit of US Provisional Patent Application No. 62/476,967, filed March 27, 2017. By reference herein to this provisional patent application, its entire contents are also incorporated into this application.

[0002] 光学撮像システムと撮像ターゲットとの間に散在する散乱媒体は、反射またはグレアを発生する可能性があり、ターゲットを曖昧にする。グレアは、特にターゲットからの光反射が弱い場合には、ターゲットの画像を検出し検知するという光学撮像システムの能力を著しく損なう可能性がある。グレアを抑制するためには、弱め合う光干渉(destructive optical interference)を使用することができる。弱め合う干渉を使用する光学撮像システムは、他に取り得る撮像技法よりも高い感度を有することもできる。 [0002] Scattering media interspersed between an optical imaging system and an imaging target can produce reflections or glare, obscuring the target. Glare can significantly impair an optical imaging system's ability to detect and sense an image of a target, especially if the light reflection from the target is weak. Destructive optical interference can be used to suppress glare. Optical imaging systems that use destructive interference can also have higher sensitivity than other possible imaging techniques.

[0003] システムによっては、例えば、遠隔検知システムには撮像ターゲットの距離を得ることが必要になる。しかしながら、弱め合う光干渉を採用する光学撮像システムは、撮像ターゲットの距離を検出することができない。したがって、光学撮像システムにおいてグレア低減および測距双方を容易にする技法が求められている。 [0003] In some systems, for example, remote sensing systems, it is necessary to obtain the distance of an imaging target. However, optical imaging systems that employ destructive optical interference cannot detect the distance of the imaging target. Therefore, there is a need for techniques that facilitate both glare reduction and ranging in optical imaging systems.

[0004] 一実施形態では、画素を用いた撮像センサを有する光学システムのグレア低減および測距を行う方法を提供する。この方法は、パワー・スペクトル密度を有する第1光ビームを生成するステップと、この第1光ビームから基準光ビームを生成するステップと、パワー・スペクトル密度を有する第1光ビームを放出するステップと、散乱媒体およびターゲットからそれぞれ反射した散乱光および反射光を集光するステップと、第1光ビームが散乱光と実質的にコヒーレントとなるように、第1光ビームのパワー・スペクトル密度を決定するステップと、基準光ビームが散乱光と実質的にコヒーレントとなるように第1光ビームのパワー・スペクトル密度を調節するステップと、画素毎に、各画素におけるDC光パワーを最小にするように、基準光ビームの振幅および位相を変更するステップと、画素毎に実質的に最小の検出DC光パワーが得られた変更振幅および位相を格納するステップと、第2基準光ビームのパワー・スペクトル密度を高めるステップと、第2基準光ビームの振幅を、周波数を有する正弦波信号によって変調するステップと、画素毎に、基準光ビームの第2遅延を調節することによって、変調周波数における実質的に最大の信号レベルを画素上において検出するステップと、ターゲットまでの距離を判定するステップとを含む。 [0004] In one embodiment, a method for glare reduction and ranging for an optical system having a pixel-based imaging sensor is provided. The method comprises the steps of generating a first light beam having a power spectral density, generating a reference light beam from the first light beam, and emitting the first light beam having the power spectral density. , collecting the scattered light and the reflected light reflected from the scattering medium and the target, respectively; and determining the power spectral density of the first light beam such that the first light beam is substantially coherent with the scattered light. adjusting the power spectral density of the first light beam so that the reference light beam is substantially coherent with the scattered light; pixel by pixel, to minimize the DC light power at each pixel; modifying the amplitude and phase of the reference light beam; storing the modified amplitude and phase that resulted in the substantially minimum detected DC light power for each pixel; and calculating the power spectral density of the second reference light beam. modulating the amplitude of the second reference light beam with a sinusoidal signal having a frequency; and adjusting the second delay of the reference light beam on a pixel-by-pixel basis to substantially maximize the Detecting the signal level on the pixel and determining the distance to the target.

[0005] 図面は例示的な実施形態を図示するに過ぎず、したがって範囲を限定すると見なしてはならないことを理解の上で、添付図面を使用することにより、例示的な実施形態について更に具体的にそして詳細に説明する。
図1は、グレア低減および測距システムを含む輸送機関システム(vehicle system)の一実施形態を示す。 図2は、グレア低減および測距光学撮像システムの一実施形態を示す。 図3は、第1光プロセッサの一実施形態を示す。 図4は、第3光プロセッサの一実施形態を示す。 図5は、第2光プロセッサの一実施形態を示す。 図6は、第4光プロセッサの一実施形態を示す。 図7は、第5光プロセッサの一実施形態を示す。 図8は、処理システムの一実施形態を示す。 図9は、グレア抑制および測距方法の一実施形態を示す。
[0005] With the understanding that the drawings merely illustrate exemplary embodiments and are therefore not to be considered limiting in scope, the accompanying drawings will be used to provide further specificity for exemplary embodiments. to and in detail.
FIG. 1 illustrates one embodiment of a vehicle system including a glare reduction and ranging system. FIG. 2 illustrates one embodiment of a glare reduction and ranging optical imaging system. FIG. 3 illustrates one embodiment of the first optical processor. FIG. 4 illustrates one embodiment of the third optical processor. FIG. 5 shows one embodiment of the second optical processor. FIG. 6 shows one embodiment of the fourth optical processor. FIG. 7 illustrates one embodiment of the fifth optical processor. FIG. 8 illustrates one embodiment of a processing system. FIG. 9 illustrates one embodiment of a glare suppression and ranging method.

[0015] 慣習にしたがって、説明する種々の特徴は、同じ拡縮率で描かれるのではなく、実施形態例に関連する具体的な特徴を強調するように描かれることとする。参照符号は、図および本文を通して同様のエレメントを指す。 [0015] By convention, the various features described are not drawn to scale, but are drawn to emphasize specific features associated with the example embodiments. Reference characters refer to similar elements throughout the figures and text.

[0016] 以下の詳細な説明は、性質上単なる例示に過ぎず、本発明または本願および本発明の使用を限定することを意図するのではない。本明細書において使用する場合、「例示的な」(exemplary)という単語は、「一例、実例、または例示(example, instance or illustration)として役割を果たす」ことを意味する。したがって、「例示的」であるとして本明細書において説明するいずれの実施形態も、他の実施形態よりも好ましいまたは有利であると、必ずしも解釈される訳ではない。本明細書において説明する実施形態の全ては、当業者が本発明を行うまたは使用することを可能にし、更に特許請求の範囲によって定められる発明の範囲を限定しないために提供される例示的な実施形態である。更に、明示または黙示を問わず、前述の背景および摘要または以下の詳細な説明において紹介される理論による拘束を受けることは意図していない。 [0016] The following detailed description is merely exemplary in nature and is not intended to limit the invention or the application and uses of the invention. As used herein, the word "exemplary" means "serving as an example, instance or illustration." Thus, any embodiment described herein as being "exemplary" is not necessarily to be construed as preferred or advantageous over other embodiments. All of the embodiments described herein are provided as exemplary implementations to enable any person skilled in the art to make or use the invention and not to limit the scope of the invention as defined by the claims. form. Furthermore, there is no intention to be bound by any expressed or implied theory presented in the preceding background and summary or the following detailed description.

[0017] 図1は、グレア低減および測距システム102を含む輸送機関101システムの一実施形態を示す。他の実施形態では、輸送機関101は、自動車、トラック、列車、航空機、ヘリコプタ、ドローン、船舶、または任意の他のタイプの輸送機関でもよい。更に他の実施形態では、輸送機関101は、更に、少なくとも1つの入力/出力デバイス(I/O)105、少なくとも1つのセンサ108、時間、位置、およびベクトル速度検出システム107、ならびに/あるいはグレア抑制および測距システム102に結合された通信システム109も含む。更に別の実施形態では、少なくとも1つの入力/出力デバイス105は、1つ以上のディスプレイを含み、ターゲット112の画像および/または距離を、例えば、輸送機関101の乗員に表示するために使用される。 [0017] FIG. 1 illustrates one embodiment of a vehicle 101 system that includes a glare reduction and ranging system 102. As shown in FIG. In other embodiments, vehicle 101 may be an automobile, truck, train, aircraft, helicopter, drone, ship, or any other type of vehicle. In yet other embodiments, vehicle 101 further includes at least one input/output device (I/O) 105, at least one sensor 108, time, position, and vector velocity detection system 107, and/or glare suppression. and a communication system 109 coupled to the ranging system 102 . In yet another embodiment, at least one input/output device 105 includes one or more displays and is used to display images and/or distances of targets 112, for example, to passengers of vehicle 101. .

[0018] 一実施形態では、グレア低減および測距システム102は、グレア低減および測距光学撮像システム106に結合された処理システム104を含む。他の実施形態では、処理システム104は、グレア抑制および測距システム102の外部に、例えば、輸送機関におけるいずれかの場所に配置される。更に他の実施形態では、処理システム102が、飛行管理システムまたは飛行管理コンピュータのような、輸送機関101の他のシステムの一部であってもよい。更に別の実施形態では、少なくとも1つの入力/出力デバイス105、少なくとも1つのセンサ108、および/または通信システム109は、処理システム104に、その位置に関係なく、結合される。 In one embodiment, glare reduction and ranging system 102 includes a processing system 104 coupled to glare reduction and ranging optical imaging system 106 . In other embodiments, the processing system 104 is located external to the glare suppression and ranging system 102, eg, elsewhere on the vehicle. In still other embodiments, processing system 102 may be part of other systems of vehicle 101, such as a flight management system or flight management computer. In yet another embodiment, at least one input/output device 105, at least one sensor 108, and/or communication system 109 are coupled to processing system 104, regardless of their location.

[0019] グレア低減および測距システム102は、光学的に、散乱媒体110の後ろ側にあるターゲット112を撮像し、その距離を検出する。他の実施形態では、ターゲット112は、任意のタイプの物理的物体、例えば、輸送機関、人、動物、あるいは人工構造物または自然構造物とすることができる。更に他の実施形態では、散乱媒体は、気体、液体、または固体物体、例えば、雲、霧、雨、または反射鏡とすることができる。 [0019] Glare reduction and ranging system 102 optically images target 112 behind scattering medium 110 and detects its range. In other embodiments, target 112 can be any type of physical object, such as a vehicle, a person, an animal, or a man-made or natural structure. In still other embodiments, the scattering medium can be a gas, liquid, or solid object, such as clouds, fog, rain, or reflectors.

[0020] 一実施形態では、グレア低減および光学測距システムは、出力光ビーム114Bを放出し、出力光ビーム114Bは散乱媒体110およびターゲット112に入射する。出力光ビーム114Bの一部、またはかなりの部分が散乱することもあり、散乱媒体110から反射する。出力光ビーム114Bの一部、即ち、散乱光114Sは、反射して、グレア低減および測距光学撮像システム106に戻される。ターゲット112に達した出力光ビーム114Bの一部、即ち、反射光114Rは、反射して低減および測距光学撮像システム106に戻される。散乱光114Sのパワーは、通常では反射光114Rが検出不可能になる程に、反射光114Rのパワーよりも遙かに大きい場合もある。しかしながら、グレア低減および測距光学撮像システム106は、反射光114Rを検出できるように、散乱光114Sを抑制することができる。反射光114Rを検出することにより、ターゲット112の撮像および距離判定が可能になる。光のグレアから生ずる問題は、Zhou et al., "Glare Suppression by Coherence Gated Negation"(コヒーレンス制御打ち消しによるグレア抑制), Optical, Vol. 3, No. 10, October 2016, pp. 1107-1113、および対応する公開補遺原稿(published Supplementary Material)に更に記載されている。これらの文献をここで引用したことにより、それらの内容全てが本願にも含まれるものとする。 [0020] In one embodiment, the glare reduction and optical ranging system emits an output light beam 114B that impinges on scattering medium 110 and target 112 . A portion, or a substantial portion, of output light beam 114 B may be scattered and reflected from scattering medium 110 . A portion of the output light beam 114B, the scattered light 114S, is reflected back to the glare reduction and ranging optical imaging system 106. FIG. A portion of output light beam 114 B that reaches target 112 , reflected light 114 R, is reflected back to reduction and ranging optical imaging system 106 . The power of scattered light 114S may be so much greater than the power of reflected light 114R that normally reflected light 114R becomes undetectable. However, glare reduction and ranging optical imaging system 106 can suppress scattered light 114S so that reflected light 114R can be detected. By detecting the reflected light 114R, the target 112 can be imaged and the distance can be determined. Problems arising from optical glare are discussed in Zhou et al., "Glare Suppression by Coherence Gated Negation", Optical, Vol. 3, No. 10, October 2016, pp. 1107-1113, and Further described in the corresponding published Supplementary Material. By citation of these documents herein, their entire contents are also incorporated herein.

[0021] 一実施形態では、少なくとも1つのセンサ108は、LIDARおよび/またはRADARを含む。少なくとも1つのセンサ108は、少なくとも1つのセンサ108から散乱媒体110および/またはターゲット112までの距離(distance)を測定するように構成されている。つまり、処理システムは、第1および/または第2可変光遅延線に対して、距離に2を乗算し光速で除算することによって、後に記述される時間遅延を推定することができる。他の実施形態では、少なくとも1つのセンサ108およびグレア抑制および測距システム102からの第1オフセット距離が分かっており、処理システム104に格納されている。これらの距離および時間遅延は、この第1オフセット・ベクトル距離を補償することによって、一層精度高く推定することができる。これは、当業者には知られている技法である。 [0021] In one embodiment, at least one sensor 108 includes a LIDAR and/or RADAR. At least one sensor 108 is configured to measure a distance from at least one sensor 108 to scattering medium 110 and/or target 112 . That is, the processing system can estimate the time delays described below for the first and/or second variable optical delay lines by multiplying the distance by two and dividing by the speed of light. In other embodiments, the first offset distance from at least one sensor 108 and glare suppression and ranging system 102 is known and stored in processing system 104 . These distances and time delays can be estimated more accurately by compensating for this first offset vector distance. This is a technique known to those skilled in the art.

[0022] 一実施形態では、通信システム109は、HF、VHF、衛星、セルラ・ネットワーク、Wi-Fi、Wi-Max、および/またはAeroMAC通信送受信機の内1つ以上、ならびに関連するアンテナを含む。他の実施形態では、通信システム109は、処理システム109に結合される。更に他の実施形態では、散乱媒体110および/またはターゲット112の三次元位置および/またはベクトル速度、例えば、これらの質量中心を、他の輸送機関(1つまたは複数)、衛星(1つまたは複数)、および/または地上局(1つまたは複数)によって、例えば、LIDARおよび/またはRADARによって測定することもできる。次いで、測定された三次元位置および/またはベクトル速度は、通信システム109を介して輸送機関101に送信される。更に別の実施形態では、グレア抑制および測距システム102によって行われるターゲット112の測距測定値および撮像測定値は、他の輸送機関(1つまたは複数)、衛星(1つまたは複数)、および/または地上局(1つまたは複数)に、通信システム109を介して伝達される。 [0022] In one embodiment, communication system 109 includes one or more of HF, VHF, satellite, cellular network, Wi-Fi, Wi-Max, and/or AeroMAC communication transceivers and associated antennas. . In other embodiments, communication system 109 is coupled to processing system 109 . In still other embodiments, the three-dimensional positions and/or vector velocities of scattering media 110 and/or targets 112, e.g., their centers of mass, may be transferred to other vehicle(s), satellite(s) ), and/or by ground station(s), eg, by LIDAR and/or RADAR. The measured three-dimensional positions and/or vector velocities are then transmitted to vehicle 101 via communication system 109 . In yet another embodiment, ranging and imaging measurements of target 112 made by glare suppression and ranging system 102 may be performed by other vehicle(s), satellite(s), and /or communicated via communication system 109 to ground station(s).

[0023] 一実施形態では、時間、位置、およびベクトル速度検出システム107は、全地球ナビゲーション衛星システム(GNSS)受信機、例えば、GPS受信機、および/または慣性管理ユニット(IMU)を含む。他の実施形態では、IMUは少なくとも1つのジャイロスコープおよび/または少なくとも1つの加速度計を含む。更に他の実施形態では、GNSS受信機およびIMUは、互いに結合すること、および/または処理システム104に結合することもできる。時間、位置、およびベクトル速度検出システム107は、現在の時刻、輸送機関101の位置、および輸送機関101のベクトル速度を監視する。更に別の実施形態では、測距および対応する時間遅延計算の精度を高めるために、少なくとも1つのセンサ108ならびにグレア低減および測距光学撮像システム106によって行われる測定にはタイム・スタンプが付けられる。スタンプの時刻は、時間、位置、およびベクトル速度検出システム107から発せられる。 [0023] In one embodiment, the time, position, and vector velocity detection system 107 includes a Global Navigation Satellite System (GNSS) receiver, eg, a GPS receiver, and/or an inertial management unit (IMU). In other embodiments, the IMU includes at least one gyroscope and/or at least one accelerometer. In still other embodiments, the GNSS receiver and IMU may be coupled together and/or coupled to the processing system 104 . The time, position and vector velocity detection system 107 monitors the current time of day, the position of the vehicle 101 and the vector velocity of the vehicle 101 . In yet another embodiment, measurements made by at least one sensor 108 and glare reduction and ranging optical imaging system 106 are time stamped to increase the accuracy of ranging and corresponding time delay calculations. The time of stamp originates from the time, position and vector velocity detection system 107 .

[0024] 一実施形態では、提供された情報に基づいて推定された散乱媒体110および/またはターゲット112の位置は、通信システム109を介して処理システム104に伝達される。この情報に基づいて、処理システム104は、輸送機関101ならびに散乱媒体110および/またはターゲット112の双方が移動していても、グレア抑制および測距システム102と散乱媒体110および/またはターゲット112との間の相対距離(したがって、対応する時間遅延)を判定または推定することができる。他の実施形態では、時間、位置、およびベクトル速度検出システム107の位置(またはこのシステムによって判定される輸送機関における対応する位置)、ならびにグレア抑制および測距システム102からの第2オフセット・ベクトル距離が分かっており、処理システム104に格納される。これらの距離および時間遅延は、当業者には周知の方法で、第2オフセット・ベクトル距離を考慮することによって一層精度高く推定することができる。 [0024] In one embodiment, the estimated scattering medium 110 and/or target 112 positions based on the information provided are communicated to the processing system 104 via the communication system 109 . Based on this information, processing system 104 can determine glare suppression and ranging system 102 and scattering media 110 and/or targets 112, even if both vehicle 101 and scattering media 110 and/or targets 112 are moving. can be determined or estimated (and thus the corresponding time delays) between. In other embodiments, the time, position, and position of the vector velocity detection system 107 (or the corresponding position in the vehicle determined by this system) and a second offset vector distance from the glare suppression and ranging system 102 is known and stored in processing system 104 . These distances and time delays can be estimated more accurately by considering the second offset vector distance, in a manner well known to those skilled in the art.

[0025] 図2は、グレア低減および測距光学撮像システム206の一実施形態を示す。グレア低減および測距光学撮像システム206は、他の方法で実現することができる。例えば、グレア低減および測距光学撮像システム206は、ミラーの他の実施態様を用いて実現することもできる。 [0025] FIG. 2 illustrates one embodiment of a glare reduction and ranging optical imaging system 206. As shown in FIG. The glare reduction and ranging optical imaging system 206 can be implemented in other ways. For example, the glare reduction and ranging optical imaging system 206 can also be implemented using other implementations of mirrors.

[0026] 図示するグレア低減および測距光学撮像システム206は、光源220、第1信号生成器221A、第1ビーム・スプリッタ(BS)222A、第1ミラー226A、第2ビーム・スプリッタ222B、第2ミラー226B、第2光プロセッサ224B、第3ビーム・スプリッタ222C、撮像センサ228、第3ミラー226C、第4ミラー226D、第4ビーム・スプリッタ222D、および第5ビーム・スプリッタ222Eを含む。他の実施形態では、グレア低減および測距光学撮像システム206は、第1光プロセッサ224Aを含む。更に他の実施形態では、撮像センサ228は、高感度(intensified)電荷結合デバイスまたはシングル・フォトン・アバランシェ・ダイオード・アレイのような、細かい時間分解能を有する高速光検出器である。更に別の実施形態では、撮像センサ228は、X×Y、例えば、100×100の画素229を有する。更に別の実施形態では、画素サイズは、いずれの所与の画素においても、その表面にわたって位相のばらつきが起こらないことを確保するために、対応する画像スペックル・サイズよりも小さい。 [0026] The illustrated glare reduction and ranging optical imaging system 206 includes a light source 220, a first signal generator 221A, a first beam splitter (BS) 222A, a first mirror 226A, a second beam splitter 222B, a second It includes a mirror 226B, a second optical processor 224B, a third beam splitter 222C, an image sensor 228, a third mirror 226C, a fourth mirror 226D, a fourth beam splitter 222D, and a fifth beam splitter 222E. In another embodiment, the glare reduction and ranging optical imaging system 206 includes a first light processor 224A. In still other embodiments, imaging sensor 228 is a high speed photodetector with fine temporal resolution, such as an intensified charge-coupled device or a single-photon avalanche diode array. In yet another embodiment, the imaging sensor 228 has X×Y, eg, 100×100 pixels 229 . In yet another embodiment, the pixel size is smaller than the corresponding image speckle size to ensure that no phase variation occurs across the surface at any given pixel.

[0027] 一実施形態では、光源220はレーザ、例えば、電流制御形分散ブラグ・リフレクタ・レーザ(current controlled distributed Bragg reflector laser)であり、半導体レーザであってもよい。他の実施形態では、光源220は約1550ナノメートルの波長において動作する。第1信号生成器221Aは、光源220に結合されている。第1信号生成器221Aは、光源220の搬送波周波数上で周波数ドメインにおける第1パワー・スペクトル密度(時間ドメインにおける第1コヒーレント関数に対応する)を有する信号、例えば、電流信号を生成する。更に他の実施形態では、第1コヒーレンス関数および第1パワー・スペクトル密度はガウス分布を有する。しかしながら、第1パワー・スペクトル密度は、任意のコヒーレンス関数を生成するように実現することができる。つまり、光源220は、第1パワー・スペクトル密度を有する連続波である光源ビーム214Aを生成する。更に別の実施形態では、光源220は直線(垂直または水平)偏光ビームを放出する。 [0027] In one embodiment, light source 220 is a laser, eg, a current controlled distributed Bragg reflector laser, and may be a semiconductor laser. In another embodiment, light source 220 operates at a wavelength of approximately 1550 nanometers. First signal generator 221 A is coupled to light source 220 . The first signal generator 221A generates a signal, eg a current signal, having a first power spectral density in the frequency domain (corresponding to a first coherent function in the time domain) on the carrier frequency of the light source 220 . In still other embodiments, the first coherence function and the first power spectral density have a Gaussian distribution. However, the first power spectral density can be implemented to produce any coherence function. Thus, light source 220 produces source beam 214A, which is a continuous wave having a first power spectral density. In yet another embodiment, light source 220 emits a linearly (vertically or horizontally) polarized beam.

[0028] 一実施形態では、第1信号生成器221Aは処理システム104に結合される。他の実施形態では、処理システム104は、第1信号生成器221Aによって生成される信号を制御することによって、光源ビーム214Aのパワー・スペクトル密度を制御する。更に他の実施形態では、第1信号生成器221Aは任意の波形生成器である。 [0028] In one embodiment, the first signal generator 221A is coupled to the processing system 104; In other embodiments, processing system 104 controls the power spectral density of source beam 214A by controlling the signal generated by first signal generator 221A. In still other embodiments, the first signal generator 221A is an arbitrary waveform generator.

[0029] 以下のことは、光源ビーム214Aがターゲット112上に、例えば、散乱媒体110を介して投射されるときに行われる(undertaken)。一実施形態では、最初に、光源ビーム214Aのパワー・スペクトル密度が、例えば、光源220によって生成され、比較的狭いガウス分布を有する、デフォルトのパワー・スペクトル密度となる。続いて、光源ビーム214Aのパワー・スペクトル密度の幅を段階的に広げていく(increased)。他の実施形態では、これは処理システム104によって行われ、処理システム104は、光源ビーム214Aの所望のパワー・スペクトル密度を対応して形成する信号を生成するように、第1信号生成器221Aを制御する。光源ビーム214Aのパワー・スペクトル密度の幅が広がるに連れて、対応するコヒーレンス関数の幅は狭くなる。 [0029] The following is undertaken when the source beam 214A is projected onto the target 112, eg, through the scattering medium 110. As shown in FIG. In one embodiment, the power spectral density of source beam 214A is initially the default power spectral density produced by, for example, source 220 and having a relatively narrow Gaussian distribution. Subsequently, the width of the power spectral density of source beam 214A is increased stepwise. In other embodiments, this is done by processing system 104, which directs first signal generator 221A to generate a signal correspondingly shaping the desired power spectral density of source beam 214A. Control. As the power spectral density of source beam 214A widens, the width of the corresponding coherence function narrows.

[0030] デフォルトのパワー・スペクトル密度を含んで、1刻み毎に、処理システム104は、撮像センサ228によって検出された最大および最小グレー・スケール値(異なる画素における)、つまり、検出されたグレー・スケール・ダイナミック・レンジを判定し、例えば、格納する。一実施形態では、このグレー・スケールはゼロ(入射信号が全くない、即ち、黒)から1(入射信号が全域に存在する、即ち白)までの範囲を取る。更に他の実施形態では、処理システム104は、ダイナミック・レンジの局所最大値(例えば、撮像センサ228の異なる画素における最大グレー・スケール値と最小グレー・スケール値との間の最大の差)と、対応するパワー・スペクトル密度とを判定し、例えば、格納する。最大グレー・スケール・ダイナミック・レンジは、光源ビーム214Aが散乱光114Sと非常にコヒーレントであるために、グレア抑制および測距システム102によって散乱光114Sを打ち消す、または実質的に打ち消すことができるときに対応する。次いで、処理システム104は、最大グレー・スケール・ダイナミック・レンジに対応するパワー・スペクトル密度を有する信号を、光源ビーム214Aに生成させる信号を生成するように、第1信号生成器221Aを制御する。 [0030] For each step, including the default power spectral density, the processing system 104 calculates the maximum and minimum gray scale values (at different pixels) detected by the imaging sensor 228, ie, the detected gray scale values. A scale dynamic range is determined and, for example, stored. In one embodiment, this gray scale ranges from zero (no incident signal, black) to one (all incident signal, white). In yet other embodiments, the processing system 104 calculates the local maxima of the dynamic range (e.g., the maximum difference between the maximum and minimum gray scale values at different pixels of the imaging sensor 228) and A corresponding power spectral density is determined and, for example, stored. The maximum gray scale dynamic range is achieved when source beam 214A is so coherent with scattered light 114S that scattered light 114S can be canceled or substantially canceled by glare suppression and ranging system 102. handle. Processing system 104 then controls first signal generator 221A to produce a signal that causes source beam 214A to produce a signal having a power spectral density corresponding to the maximum gray scale dynamic range.

[0031] 光源ビーム214Aは、次いで、第1ビーム・スプリッタ222Aに入射する。一実施形態では、本明細書において説明するビーム・スプリッタの内1つ以上が、立方体ビーム・スプリッタまたは平板ビーム・スプリッタである。第1ビーム・スプリッタ222Aは、光源ビーム214Aを出力前光ビーム(pre-output light beam)214Pおよび第1基準光ビーム214Cに分割する。 [0031] The light source beam 214A is then incident on the first beam splitter 222A. In one embodiment, one or more of the beam splitters described herein are cube beam splitters or planar beam splitters. A first beam splitter 222A splits the source beam 214A into a pre-output light beam 214P and a first reference light beam 214C.

[0032] 一実施形態では、第1基準光ビーム214Cは第1光プロセッサ224Aに結合される。この実施形態では、第1光プロセッサ224Aは、以下で例をあげるように、第1基準光ビーム214Cを光学的に処理し、処理済み第1基準光ビーム214Dを生成する。しかしながら、第1光プロセッサ224が利用されない場合、第1基準光ビーム214Cはその場合第2基準光ビーム214Cとも呼ばれ、第2基準光ビーム214Cと同じになる。 [0032] In one embodiment, the first reference light beam 214C is coupled to a first light processor 224A. In this embodiment, first optical processor 224A optically processes first reference light beam 214C to produce processed first reference light beam 214D, as exemplified below. However, if the first light processor 224 is not utilized, the first reference light beam 214C, then also referred to as the second reference light beam 214C, will be the same as the second reference light beam 214C.

[0033] 一実施形態では、次に、処理積み第1基準光ビーム214Dは、第1ミラー226Aに入射する。第1ミラー226Aは、処理済み第1基準光ビーム214Dを、例えば、90度の角度で反射する。他の実施形態では、処理済み第1基準光ビーム214Dは、次に、第2ビーム・スプリッタ222Bに入射する。第2ビーム・スプリッタ222Bは、処理済み第1基準光ビームの第1部分214D’が第3光プロセッサ224Cに結合され、そして処理済み第1基準光ビームの第2部分214D"が第2光プロセッサ224Bに結合されるように、処理済み第1基準光ビーム214Dを分割する。更に他の実施形態では、第2ミラーが、例えば、90度の角度で、処理済み第1基準光ビームの第2部分214D”を反射し、これを第2光プロセッサ224Bに結合する。 [0033] In one embodiment, the load first reference light beam 214D is then incident on the first mirror 226A. First mirror 226A reflects processed first reference light beam 214D at an angle of, for example, 90 degrees. In other embodiments, processed first reference light beam 214D is then incident on second beam splitter 222B. A second beam splitter 222B couples a first portion 214D' of the processed first reference light beam to a third optical processor 224C and a second portion 214D'' of the processed first reference light beam to a second optical processor. 224 B. In yet another embodiment, a second mirror splits the processed first reference light beam 214 D so that it is combined into 224 B. In yet another embodiment, a second mirror splits the processed first reference light beam at a second angle, for example, at a 90 degree angle. It reflects the portion 214D'' and couples it to the second optical processor 224B.

[0034] 第2光プロセッサ224Bは、以下で例をあげるように、処理済み第1基準光ビームの第2部分214D”を光学的に処理し、第2基準光ビーム214Eを生成する。第2基準光ビーム214Eは、第4ビーム・スプリッタ222Dに入射し、第4ビーム・スプリッタ222Dは、第2基準光ビーム214Eを撮像センサ228に導く。 [0034] The second optical processor 224B optically processes the second portion 214D'' of the processed first reference light beam to produce a second reference light beam 214E, as exemplified below. Reference light beam 214 E is incident on fourth beam splitter 222 D, which directs second reference light beam 214 E to imaging sensor 228 .

[0035] 処理済み第1基準光ビームの第1部分214D’は、第3光プロセッサ224Cに結合される。第3光プロセッサ224Cは、以下で例をあげるように、処理済み第1基準光ビームの第1部分214D’を光学的に処理し、第3基準光ビーム214Fを生成する。第3光プロセッサ224Cは、第3基準光ビーム214Fを第3ビーム・スプリッタ222Cに結合する。第3ビーム・スプリッタ222Cは、第3基準光ビーム214Fを第4ビーム・スプリッタ222Dに導く。第4ビーム・スプリッタ222Dは、第3基準光ビーム214Fを撮像センサ228に導く。 [0035] The first portion 214D' of the processed first reference light beam is coupled to a third light processor 224C. A third optical processor 224C optically processes the first portion 214D' of the processed first reference light beam to produce a third reference light beam 214F, as exemplified below. A third optical processor 224C couples a third reference light beam 214F to a third beam splitter 222C. Third beam splitter 222C directs third reference light beam 214F to fourth beam splitter 222D. A fourth beam splitter 222D directs the third reference light beam 214F to the imaging sensor 228. FIG.

[0036] 一実施形態では、出力前光ビーム214Pが第5光プロセッサ224Eに導かれる。他の実施形態では、出力前光ビーム214Pは、例えば、90度の角度だけ、第3ミラー226Cによって反射され、第5光プロセッサ224Eに導かれる。第5光プロセッサ224Eは、以下で例をあげるように、出力前光ビーム214Pを光学的に処理し、出力光ビーム214Bを生成する。第5光プロセッサ224Eは、出力光ビーム214Bを第5ビーム・スプリッタ222Eに導く。更に他の実施形態では、出力光ビーム214Bは、例えば、90度の角度だけ、第4ミラー226Dによって反射され、第5ビーム・スプリッタ222Eに導かれる。第5ビーム・スプリッタ222Eを通過した後、出力光ビーム214Bは、グレア低減および測距光学撮像システム206から、例えば、自由空間内に、ターゲット112に向けて放出される。 [0036] In one embodiment, the output front light beam 214P is directed to a fifth light processor 224E. In other embodiments, the output front light beam 214P is reflected by a third mirror 226C, eg, by a 90 degree angle, and directed to a fifth light processor 224E. A fifth optical processor 224E optically processes output pre-light beam 214P to produce output light beam 214B, as exemplified below. A fifth optical processor 224E directs the output light beam 214B to a fifth beam splitter 222E. In yet another embodiment, the output light beam 214B is reflected by a fourth mirror 226D, eg, by a 90 degree angle, and directed to a fifth beam splitter 222E. After passing through fifth beam splitter 222E, output light beam 214B is emitted from glare reduction and ranging optical imaging system 206 toward target 112, eg, into free space.

[0037] 一実施形態では、散乱光214Sおよび反射光214Rは、それぞれ、散乱媒体110およびターゲット112から反射して、グレア低減および測距光学撮像システム206に戻される。散乱光214Sおよび反射光214Rは、第5ビーム・スプリッタ222Eに入射し、これを通過する。 [0037] In one embodiment, scattered light 214S and reflected light 214R are reflected back to glare reduction and ranging optical imaging system 206 from scattering medium 110 and target 112, respectively. Scattered light 214S and reflected light 214R are incident on and pass through fifth beam splitter 222E.

[0038] 散乱光214Sおよび反射光214Rは、第5ビーム・スプリッタ222Eによって、第4光プロセッサ224Dに結合される。第4光プロセッサ224Dは、以下で例をあげるように、散乱光214Sおよび反射光214Rを光学的に処理し、処理済み散乱光214S’および処理済み反射光214R’を生成する。 [0038] Scattered light 214S and reflected light 214R are coupled by a fifth beam splitter 222E to a fourth optical processor 224D. A fourth optical processor 224D optically processes scattered light 214S and reflected light 214R to produce processed scattered light 214S' and processed reflected light 214R', as exemplified below.

[0039] 処理済み散乱光214S’および処理済み反射光214R’は、第4光プロセッサ224Dから第3ビーム・スプリッタ222Cに結合される。第3ビーム・スプリッタ222Cは、処理済み散乱光214S’および処理済み反射光214R’を第4ビーム・スプリッタ222Dに結合する。第4ビーム・スプリッタ222Dは、処理済み散乱光214S’および処理済み反射光214R’を撮像センサ228に結合する。 [0039] Processed scattered light 214S' and processed reflected light 214R' are coupled from a fourth optical processor 224D to a third beam splitter 222C. Third beam splitter 222C couples processed scattered light 214S' and processed reflected light 214R' to fourth beam splitter 222D. Fourth beam splitter 222D couples processed scattered light 214S' and processed reflected light 214R' to imaging sensor 228. As shown in FIG.

[0040] 一実施形態では、撮像センサ228およびその内部にある各画素は、光パワーに対して線形応答を有する。他の実施形態では、撮像センサ228およびその内部にある各画素は、光場(optical field)に対して二乗則応答(square law response)を有する。非線形性応答のために、処理済み散乱光214S’、処理済み反射光214R’、第2基準光ビーム214E、および第3基準光ビーム214Fは混合され、混合物(mixing product)を生成する。所望の混合物の検出、および望まない混合物の抑制によって、グレア低減、ターゲット112の撮像、およびターゲット112の測距が可能になる。これについて続いて説明する。 [0040] In one embodiment, the imaging sensor 228 and each pixel within it has a linear response to optical power. In other embodiments, the imaging sensor 228 and each pixel within it has a square law response to the optical field. Due to the nonlinear response, processed scattered light 214S', processed reflected light 214R', second reference light beam 214E, and third reference light beam 214F are mixed to produce a mixing product. Detection of desired mixtures and suppression of undesired mixtures enables glare reduction, target 112 imaging, and target 112 ranging. This will be explained subsequently.

[0041] 図3は、第1光プロセッサ324Aの一実施形態を示す。図示する第1光プロセッサは、第1直線偏光フィルタ(LPF)332Aを含む。他の実施形態では、第1光プロセッサ324Aは第1可変光遅延線334Aを含む。第1可変光遅延線334Aは、処理システム104に結合されている。他の実施形態では、第1光プロセッサ324Aは第1可変光遅延線334Aのみを含む。第1偏光フィルタ332A、ならびに第4光プロセッサ224Dおよび第5光プロセッサ224Eにおける対応する偏光フィルタは、散乱光214Sの抑制、ターゲット112の撮像、およびターゲット112の測距をし易くするために、光源220によって生成される光源ビーム214Aの直線偏光と同じ直線偏光(垂直または水平)を有する。 [0041] Figure 3 illustrates one embodiment of the first optical processor 324A. The illustrated first optical processor includes a first linear polarizing filter (LPF) 332A. In another embodiment, the first optical processor 324A includes a first variable optical delay line 334A. First variable optical delay line 334 A is coupled to processing system 104 . In other embodiments, first optical processor 324A includes only first variable optical delay line 334A. First polarizing filter 332A and corresponding polarizing filters in fourth and fifth optical processors 224D and 224E are used to facilitate suppression of scattered light 214S, imaging of target 112, and ranging of target 112. has the same linear polarization (vertical or horizontal) as that of source beam 214A produced by 220;

[0042] 第1基準光ビーム214Cは、望まれる直線偏光だけが伝搬し続けるように、第1直線偏光フィルタ(LPF)332Aによって濾波される。一実施形態では、本明細書において説明する直線偏光板(liner polarizer)はポリマーで形成される。直線偏光された第1基準光ビームは、次に、第1可変光遅延線334Aを通過する。他の実施形態では、本明細書において説明する可変光遅延線は、光学フィルタ、微小電気機械式システム、および/またはソリッド・ステート・デバイスを使用する、プログラマブルあるいは電子的に制御される電子または電気機械式可変光遅延線である。 [0042] The first reference light beam 214C is filtered by a first linear polarizing filter (LPF) 332A such that only the desired linear polarization continues to propagate. In one embodiment, the liner polarizers described herein are formed from polymers. The linearly polarized first reference light beam then passes through a first variable optical delay line 334A. In other embodiments, the variable optical delay lines described herein are programmable or electronically controlled electronic or electrical delay lines using optical filters, microelectromechanical systems, and/or solid state devices. It is a mechanical variable optical delay line.

[0043] 一実施形態では、第1光遅延線334Aの遅延は、処理システム104によって、例えば、散乱媒体110から反射した散乱光214Sの伝送(transmission)および反射経路の時間遅延における遅延に等しくなるように、制御される、例えば、プログラミングされる。他の実施形態では、この時間遅延は分かっているか、または外部データ源によって提供される距離データ、または前述のような少なくとも1つのセンサ108によって生成される距離データから計算される。 [0043] In one embodiment, the delay of the first optical delay line 334A is equal to the delay in the time delay of the transmission and reflection paths of the scattered light 214S reflected from the scattering medium 110 by the processing system 104, for example. controlled, eg programmed. In other embodiments, this time delay is known or calculated from range data provided by an external data source or generated by at least one sensor 108 as described above.

[0044] 図4は、第3光プロセッサ424Cの一実施形態を示す。第1基準光ビームの第1部分214D’は、第3光プロセッサ424Cに結合される。第3光プロセッサ424Cは、第3基準光ビーム214Fを放出する。 [0044] Figure 4 illustrates an embodiment of a third optical processor 424C. A first portion 214D' of the first reference light beam is coupled to a third optical processor 424C. Third optical processor 424C emits third reference light beam 214F.

[0045] 図示する第3光プロセッサ424Cは、第1光位相変調器(PM)438Aに結合された第1光振幅変調器(AM)436Aを含む。他の実施形態では、第1光振幅変調器436Aおよび第1光位相変調器438Aは、処理システム104に結合され、処理システム104によって制御される。更に他の実施形態では、第1光振幅変調器436Aおよび第1光位相変調器438Aは、電子的にプログラマブルなデバイスである。更に別の実施形態では、本明細書において説明する光振幅変調器は、2つのマッチド・ニオブ酸リチウム結晶を含む、電子的制御可能ポッケル・セル型変調器(Pockel cell type modulator)である。更に別の実施形態では、本明細書において説明する光位相変調器は、電子的に制御可能であり、光位相シフトを有する結晶を含む。光位相シフトは、この結晶の両端間に印加される電圧のレベルに基づいて変化する。 [0045] The illustrated third optical processor 424C includes a first optical amplitude modulator (AM) 436A coupled to a first optical phase modulator (PM) 438A. In other embodiments, first optical amplitude modulator 436 A and first optical phase modulator 438 A are coupled to and controlled by processing system 104 . In yet another embodiment, first optical amplitude modulator 436A and first optical phase modulator 438A are electronically programmable devices. In yet another embodiment, the optical amplitude modulators described herein are electronically controllable Pockel cell type modulators that include two matched lithium niobate crystals. In yet another embodiment, the optical phase modulators described herein include crystals that are electronically controllable and have an optical phase shift. The optical phase shift varies based on the level of voltage applied across the crystal.

[0046] 一実施形態では、撮像センサ228の画素毎に、第1光振幅変調器436Aおよび第1光位相変調器438Aは、振幅および位相値の範囲、例えば、N個の振幅刻みおよびY個の位相刻みで、振幅および位相が入れ替えられる(permutated)。望ましくない散乱光214Sの打ち消しは、NおよびYの整数を調節することによって、増やすことができる。 [0046] In one embodiment, for each pixel of the imaging sensor 228, the first optical amplitude modulator 436A and the first optical phase modulator 438A provide a range of amplitude and phase values, eg, N amplitude steps and Y steps. , the amplitude and phase are permuted. Cancellation of unwanted scattered light 214S can be increased by adjusting the integers of N and Y. FIG.

[0047] 振幅および位相の組み合わせ毎に各画素によって検出されたDC信号振幅を測定する。各画素によって検出されたDC信号振幅の内、最も低いものを生成した1組の振幅および位相値を格納する。この1組は、画素毎に、振幅および位相値に対応し、望まれない散乱光214Sのパワーの実質的に最大の打ち消しを可能にする(provide)、弱め合う光干渉を生成する。この弱め合う光干渉を達成するために、第2基準光ビーム214Fは、処理済み散乱光214S’と実質的に同じ振幅と、処理済み散乱光214S’の位相から180度ずれた位相とを、0、有する。最も低いDC成分を有する信号は、画素上におけるターゲットの画像信号を表す。 [0047] The DC signal amplitude detected by each pixel is measured for each combination of amplitude and phase. Store the set of amplitude and phase values that produced the lowest DC signal amplitude detected by each pixel. This set corresponds to amplitude and phase values for each pixel and produces destructive optical interference that provides substantially maximum cancellation of the power of the unwanted scattered light 214S. To achieve this destructive optical interference, the second reference light beam 214F has substantially the same amplitude as the processed scattered light 214S' and a phase 180 degrees out of phase with the processed scattered light 214S'. 0, have. The signal with the lowest DC component represents the image signal of the target on the pixel.

[0048] 次いで、画素毎に、処理システム104は、望まれない散乱光214Sの干渉の実質的に最大の打ち消しを可能にするように、第1光振幅変調器436Aおよび第1光位相変調器438Aそれぞれの振幅および位相の設定を電子的に制御することができる。その結果、ターゲット112の撮像および測距を一層精度高く判定することができる。 [0048] Then, for each pixel, processing system 104 modulates first optical amplitude modulator 436A and first optical phase modulator 436A to enable substantially maximum cancellation of the interference of undesired scattered light 214S. The amplitude and phase settings of each 438A can be electronically controlled. As a result, imaging and ranging of the target 112 can be determined with higher accuracy.

[0049] 一実施形態では、第3光プロセッサ424Cは、第1レンズ442A、例えば、平行化レンズを含む。他の実施形態では、第1光位相変調器438Aの出力は第1レンズ442Aに結合され、第1レンズ442Aの出力は第2基準光ビーム214Fとなる。 [0049] In one embodiment, the third light processor 424C includes a first lens 442A, eg, a collimating lens. In other embodiments, the output of first optical phase modulator 438A is coupled to first lens 442A, and the output of first lens 442A is second reference light beam 214F.

[0050] 図5は、第2光プロセッサ524Bの一実施形態を示す。第1基準光ビームの第2部分214D”が、第2光プロセッサ524Bに結合される。第2光プロセッサ524Bは、第2基準光ビーム214Eを放出する。 [0050] Figure 5 illustrates one embodiment of a second optical processor 524B. A second portion 214D″ of the first reference light beam is coupled to a second light processor 524B. The second light processor 524B emits a second reference light beam 214E.

[0051] 図示する第2光プロセッサ524Bは、第2光振幅変調器536Bに結合されている第2可変光遅延線534Bを含む。第2信号生成器512Bも第2光振幅変調器536Bに結合されている。 [0051] The illustrated second optical processor 524B includes a second variable optical delay line 534B coupled to a second optical amplitude modulator 536B. A second signal generator 512B is also coupled to the second optical amplitude modulator 536B.

[0052] 一実施形態では、第2光振幅変調器は、第2光位相変調器538Bに結合される。第2光位相変調器538Bは、第3信号生成器521Cに結合される。他の実施形態では、第2可変光遅延線534Bは、処理システム104に結合され、この処理システム104によって制御、例えば、プログラミングされる。 [0052] In one embodiment, the second optical amplitude modulator is coupled to the second optical phase modulator 538B. A second optical phase modulator 538B is coupled to a third signal generator 521C. In other embodiments, the second variable optical delay line 534B is coupled to the processing system 104 and is controlled, eg, programmed by the processing system 104. FIG.

[0053] 第2信号生成器521Bは、第1基準光ビーム214Dの第2部分を振幅変調する正弦波を生成する。この正弦波の周波数は比較的低くてもよいが、第1基準光ビーム214Dの第2部分を変調することによって、第1基準光ビーム214Dの第2部分は、散乱光214Sの実質的に最大の打ち消しを得ることを妨害する、時間可変DC成分を含まなくなる。一実施形態では、正弦波の周波数は1kHzと1MHzとの間である。 [0053] The second signal generator 521B generates a sine wave that amplitude modulates a second portion of the first reference light beam 214D. Although the frequency of this sine wave may be relatively low, by modulating the second portion of first reference light beam 214D, the second portion of first reference light beam 214D is substantially maximal of scattered light 214S. It does not contain a time-varying DC component that interferes with obtaining cancellation of . In one embodiment, the sine wave frequency is between 1 kHz and 1 MHz.

[0054] 第3信号生成器521Cは、出力光ビーム214B、したがって、処理済み反射光214R’のパワー・スペクトル密度よりも広いパワー・スペクトル密度と、したがって、 出力光ビーム214Bのコヒーレンス関数よりも狭いコヒーレンス関数とを、第1基準光ビームの第2部分214D”にそれぞれ有させるように、第2位相変調器538Bを変調する信号を生成する。一実施形態では、第1基準光ビームの第2部分214D”のパワー・スペクトル密度およびコヒーレンス関数は、ガウス分布を有する。第2基準光ビーム214Eのコヒーレンス関数は減少するので、ターゲット112の距離の測定精度は高くなる。他の実施形態では、第3信号生成器521Cは処理システム104に結合される。処理システム104は、出力光ビーム214Bのパワー・スペクトル密度よりも広いパワー・スペクトル密度と、したがって、出力光ビーム214Bのコヒーレンス関数よりも狭いコヒーレンス関数とを、第1基準光ビーム214D”にそれぞれ有させる信号を生成するように、第3信号生成器521Cを制御する。更に他の実施形態では、第3信号生成器521Cは、任意の波形生成器によって実装される。 [0054] The third signal generator 521C generates a power spectral density that is broader than the power spectral density of the output light beam 214B, and thus the processed reflected light 214R', and thus a narrower than the coherence function of the output light beam 214B. A signal is generated to modulate the second phase modulator 538B to cause the second portion 214D″ of the first reference light beam to have a coherence function, respectively. In one embodiment, the second phase modulator 538B of the first reference light beam The power spectral density and coherence function of portion 214D″ have a Gaussian distribution. Since the coherence function of the second reference light beam 214E is decreased, the accuracy of the distance measurement of the target 112 is increased. In other embodiments, third signal generator 521 C is coupled to processing system 104 . The processing system 104 causes each of the first reference light beams 214D″ to have a power spectral density that is broader than the power spectral density of the output light beam 214B and thus a coherence function that is narrower than the coherence function of the output light beam 214B. It controls the third signal generator 521C to generate a signal that causes the third signal generator 521C to be implemented by any waveform generator.

[0055] 第2可変光遅延線534Bに戻り、一実施形態では、画素毎に、第2可変光遅延線534Bの遅延を、例えば、ゼロ遅延から徐々に(incrementally)大きくする。他の実施形態では、第2可変光遅延線534Bの遅延を画素毎に変化させない。 [0055] Returning to the second variable optical delay line 534B, in one embodiment, for each pixel, the delay of the second variable optical delay line 534B is increased incrementally, eg, from zero delay. In other embodiments, the delay of the second variable optical delay line 534B is not varied from pixel to pixel.

[0056] このような遅延が、ターゲットと散乱媒体110との間の往復距離、例えば、ターゲット112の質量中心と散乱媒体110との間の往復距離に等しいとき、または近似するときに、画素の測定出力、例えば、電圧または電流レベルは、振幅変調、例えば、正弦波の周波数において、実質的に最大値すなわちピークに達する。この時間遅延値は、ターゲットの距離(distance)を計算するために使用される。 [0056] When such a delay equals or approximates the round trip distance between the target and the scattering medium 110, e.g. The measured output, eg voltage or current level, reaches a substantially maximum value or peak at the frequency of the amplitude modulation, eg sinusoidal wave. This time delay value is used to calculate the target distance.

[0057] したがって、第1可変光遅延線334Aおよび第2可変光遅延線534Bの遅延の和は、反射光214の往復時間に等しい。つまり、グレア低減および測距光学撮像システム206からターゲットまでの距離は、第1可変光遅延線334Aおよび第2可変光遅延線534Bの遅延の和を2で除算し、光速を乗算した値となる。一実施形態では、このような距離は処理システム104において判定することができる。 Therefore, the sum of the delays of first variable optical delay line 334 A and second variable optical delay line 534 B is equal to the round trip time of reflected light 214 . That is, the distance from the glare reduction and ranging optical imaging system 206 to the target is the sum of the delays of the first variable optical delay line 334A and the second variable optical delay line 534B divided by two, multiplied by the speed of light. . In one embodiment, such distances can be determined in processing system 104 .

[0058] 一実施形態では、第2光プロセッサ524Bは第2レンズ524B、例えば、平行化レンズを含む。他の実施形態では、第2光位相変調器538Bの光出力は第2レンズ542Bに結合され、第2レンズ542Bの出力は第2基準光ビーム214Eとなる。 [0058] In one embodiment, the second light processor 524B includes a second lens 524B, eg, a collimating lens. In other embodiments, the optical output of second optical phase modulator 538B is coupled to second lens 542B, and the output of second lens 542B is second reference light beam 214E.

[0059] 図6は、第4光プロセッサ624Dの一実施形態を示す。散乱光214Sおよび反射光214Rは、第4光プロセッサ624Dに結合される。第4光プロセッサ624Dは、処理済み散乱光214S’および処理済み反射光214R’を放出する。 [0059] Figure 6 illustrates an embodiment of a fourth optical processor 624D. Scattered light 214S and reflected light 214R are coupled to fourth light processor 624D. Fourth light processor 624D emits processed scattered light 214S' and processed reflected light 214R'.

[0060] 図示する第4光プロセッサ624Dは、第2直線偏光フィルタ632Bに結合されている対物レンズ644を含む。対物レンズ644は、散乱光214Sおよび反射光214Rを集光する。次いで、集光された散乱光214Sおよび反射光214Rは、意図する直線偏光だけが第4光プロセッサ624Dを通過するように、第2直線偏光フィルタ632Bによって濾波される。 [0060] The illustrated fourth optical processor 624D includes an objective lens 644 coupled to a second linear polarizing filter 632B. Objective lens 644 collects scattered light 214S and reflected light 214R. The collected scattered light 214S and reflected light 214R are then filtered by a second linear polarizing filter 632B such that only the intended linearly polarized light passes through the fourth optical processor 624D.

[0061] 一実施形態では、第4光プロセッサ624Dは第3レンズ624C、例えば、平行化レンズを含む。他の実施形態では、第2直線偏光フィルタ632Bの光出力は第3レンズ642Cに結合され、第3レンズ642Cの出力は、処理済み散乱光214S’および処理済み反射光214R’となる。 [0061] In one embodiment, the fourth light processor 624D includes a third lens 624C, eg, a collimating lens. In other embodiments, the light output of second linear polarizing filter 632B is coupled to third lens 642C, the output of which is processed scattered light 214S' and processed reflected light 214R'.

[0062] 図7は、第5光プロセッサ724Eの一実施形態を示す。出力前光ビーム214Pが第5光プロセッサ724Eに結合される。第5光プロセッサ724Eは、出力光ビーム214Bを放出する。 [0062] Figure 7 illustrates an embodiment of a fifth optical processor 724E. Output front light beam 214P is coupled to a fifth optical processor 724E. Fifth optical processor 724E emits output light beam 214B.

[0063] 図示する第5光プロセッサ724Eは、第3直線偏光フィルタ732Cを含む。出力前光ビーム214Pは、意図する線形偏光だけが第5光プロセッサ724Eを通過するように、第3線形偏光フィルタ732Cによって濾波される。 [0063] The illustrated fifth optical processor 724E includes a third linear polarizing filter 732C. The output pre-light beam 214P is filtered by a third linear polarizing filter 732C such that only the intended linear polarization passes through the fifth optical processor 724E.

[0064] 図8は、処理システム804の一実施形態を示す。図示する実施形態は、プロセッサ804Bに結合されているメモリ801Aを含む。他の実施形態では、プロセッサ804Bに結合されているメモリ801Aの全部または一部が、状態機械またはフィールド・プログラマブル・ゲート・アレイによって実装されてもよい。 [0064] FIG. 8 illustrates one embodiment of a processing system 804. As shown in FIG. The illustrated embodiment includes memory 801A coupled to processor 804B. In other embodiments, all or part of memory 801A coupled to processor 804B may be implemented by a state machine or field programmable gate array.

[0065] 一実施形態では、メモリ801Aは、距離判定および撮像システム804A-1およびグレア抑制システム804A-2を含む(comprise)。他の実施形態では、距離判定システムおよび撮像システム804A-1は、本明細書において説明した技法を使用して、第1可変光遅延線334Aおよび第2可変光遅延線534Bに対する遅延設定値を決定および制御する。例えば、第1可変光遅延線334Aに対する第1時間遅延は、輸送機関101と散乱媒体110との間の距離(range)を、LIDARおよび/またはRADARを使用して測定することによって、決定することができる。第1可変光遅延線334Aに対する時間遅延は、本明細書において説明したように、測定された距離から計算することができる。また、例えば、第2可変光遅延線534Bに対する第2時間遅延は、第2基準光ビーム214Eおよび処理済み反射光214R’の混合物の実質的なピーク即ち最大値が検出されるまで、第2時間遅延を、例えば、ゼロから増やしていくことによって、決定することができる。他の実施形態では、距離判定および撮像システム804A-1は、このような最大値または値(maximum or values)および対応する第2遅延を、画素毎に識別および格納する。このように、距離判定および撮像システム804A-1はターゲット112の画像も格納する。 [0065] In one embodiment, the memory 801A comprises a distance determination and imaging system 804A-1 and a glare suppression system 804A-2. In other embodiments, range determination system and imaging system 804A-1 determines delay settings for first variable optical delay line 334A and second variable optical delay line 534B using the techniques described herein. and control. For example, a first time delay for first variable optical delay line 334A may be determined by measuring the range between vehicle 101 and scattering medium 110 using LIDAR and/or RADAR. can be done. The time delay for the first variable optical delay line 334A can be calculated from the measured distance as described herein. Also, for example, a second time delay for second variable optical delay line 534B may be applied until a substantial peak or maximum of the mixture of second reference light beam 214E and processed reflected light 214R' is detected. The delay can be determined, for example, by incrementing from zero. In other embodiments, range determination and imaging system 804A-1 identifies and stores such maximum or values and corresponding second delays for each pixel. Thus, range determination and imaging system 804A-1 also stores an image of target 112. FIG.

[0066] 一実施形態では、グレア抑制システム804A-2は、撮像センサ228の画素229毎に、第1光振幅変調器436Aおよび第1光位相変調器436Bそれぞれの振幅および位相設定値を1刻みずつ変化させるための振幅および位相設定値を格納する。また、グレア抑制システム803A-2は、測定されたDC値ならびに対応する振幅および位相設定値も格納する。更に、グレア抑制システム804A-2は、画素229毎に、最小測定DC値ならびに対応する振幅および位相設定値も識別および格納する。 [0066] In one embodiment, glare suppression system 804A-2 increments the amplitude and phase settings of first optical amplitude modulator 436A and first optical phase modulator 436B, respectively, for each pixel 229 of imaging sensor 228. Stores the amplitude and phase settings for incremental changes. Glare suppression system 803A-2 also stores the measured DC values and corresponding amplitude and phase settings. In addition, glare suppression system 804A-2 also identifies and stores, for each pixel 229, the minimum measured DC value and corresponding amplitude and phase settings.

[0067] 一実施形態では、グレア抑制システム804A-2は、グレア抑制を改善する補間システムを含む。この補間システムは、測定されたDC値ならびに対応する振幅および位相設定値の対に基づいて、最小DC値を与える振幅および位相設定値を計算する。他の実施形態では、補間システムは、最小DC値ならびに対応する振幅および位相設定値の対を計算するために、最小平均二乗当てはめを使用する。 [0067] In one embodiment, glare suppression system 804A-2 includes an interpolation system to improve glare suppression. The interpolation system calculates the amplitude and phase settings that give the minimum DC value based on the measured DC values and the corresponding pairs of amplitude and phase settings. In another embodiment, the interpolation system uses a least-mean-square fit to calculate the minimum DC value and the corresponding pair of amplitude and phase settings.

[0068] 図9は、グレア抑制および測距方法900の一実施形態を示す。図9に示す方法900の実施形態が、ここでは図1から図8までに示したシステムにおいて実装されるものとして説明される範囲内において、他の実施形態を他の方法で実現できることは理解されてしかるべきである。流れ図のブロックは、説明を容易にするために、全体的に逐次並べられている。しかしながら、この配列は単なる例示であることは理解されてしかるべきであり、この方法(および図に示すブロック)に関連する処理は異なる順序で行うことができる(例えば、ブロックに関連する処理の少なくとも一部は、並列におよび/またはイベント・ドリブン方式で実行される)ことは認められてしかるべきである。 [0068] FIG. 9 illustrates an embodiment of a glare suppression and ranging method 900. In FIG. It is understood that to the extent the embodiment of method 900 shown in FIG. 9 is described herein as being implemented in the system shown in FIGS. 1-8, other embodiments may be implemented in other ways. It should be expected. The blocks of the flow diagram are generally ordered for ease of explanation. However, it should be understood that this arrangement is merely exemplary, and the operations associated with the method (and the blocks shown in the figure) may occur in a different order (e.g., at least one of the operations associated with the blocks). some are executed in parallel and/or in an event-driven manner).

[0069] 一実施形態では、ブロック950において、例えば、グレア低減および測距光撮像システム106から、散乱媒体110までの往復遅延に実質的に等しい第1遅延を得る。他の実施形態では、例えば、処理システム804のメモリ804Aからこの遅延を得る。更に他の実施形態では、少なくとも1つのセンサ108、例えば、LIDARまたはRADARから散乱媒体110までの距離を求め、この測定した距離から第1遅延を決定する。更に他の実施形態では、例えば、他の輸送機関、地上局、または衛星からの通信システム109を介して、散乱媒体110の位置を求め、第1遅延を計算する。 [0069] In one embodiment, at block 950, for example, from the glare reduction and ranging optical imaging system 106, a first delay substantially equal to the round trip delay to the scattering medium 110 is obtained. In other embodiments, this delay is obtained from memory 804A of processing system 804, for example. In yet another embodiment, the distance from at least one sensor 108, eg, LIDAR or RADAR, to scattering medium 110 is determined, and the first delay is determined from this measured distance. In still other embodiments, the position of the scattering medium 110 is determined and the first delay is calculated, eg, via communication system 109 from another vehicle, ground station, or satellite.

[0070] ブロック952において、特定のコヒーレンス関数に対応するパワー・スペクトル密度を有する出力光ビーム114Bを生成する。一実施形態では、パワー・スペクトル密度および対応するコヒーレンス関数はガウス分布を有する。 [0070] At block 952, an output light beam 114B having a power spectral density corresponding to a particular coherence function is generated. In one embodiment, the power spectral density and corresponding coherence function have a Gaussian distribution.

[0071] ブロック954において、第1光ビームから基準光ビームを生成する。ブロック956において、パワー・スペクトル密度を有する第1光ビームを、例えば、散乱媒体110およびターゲット112に向けて放出する。 [0071] At block 954, a reference light beam is generated from the first light beam. At block 956 , a first light beam having a power spectral density is emitted, for example, toward scattering medium 110 and target 112 .

[0072] ブロック958において、散乱媒体110およびターゲット112からそれぞれ反射した散乱光214Sおよび反射光214Rを集光する。ブロック959において、出力光ビーム114B、つまり、第1基準光ビームが実質的に散乱光114Sとコヒーレントとなるように、例えば、前述のように、センサによって測定された最大グレー・スケール・ダイナミック・レンジに対応する出力光ビーム114Bのパワー・スペクトル密度を決定する。他の実施形態では、出力光ビーム114B、つまり、第1基準光ビームが実質的に散乱光114Sとコヒーレントとなるように、出力光ビーム114Bのパワー・スペクトル密度を調節する。 [0072] At block 958, scattered light 214S and reflected light 214R reflected from scattering medium 110 and target 112, respectively, are collected. At block 959, output light beam 114B, the first reference light beam, is substantially coherent with scattered light 114S, e.g., the maximum gray scale dynamic range measured by the sensor as described above. Determine the power spectral density of the output light beam 114B corresponding to . In other embodiments, the power spectral density of output light beam 114B is adjusted such that output light beam 114B, the first reference light beam, is substantially coherent with scattered light 114S.

[0073] 一実施形態では、ブロック960において、基準光ビームを第1遅延だけ遅延させる。ブロック962において、集光された散乱光214Sの振幅と丁重に実質的に等しく、そして集光された散乱光214Sから180度位相ずれとなるように(例えば、各画素に入射する収集散乱光214Sを実質的に打ち消すために)、画素毎に、遅延させた基準光ビームの振幅および位相を変更する。この結果、各画素において、実質的に最小の検出DC光パワー、または最小DC光パワーが得られる。一実施形態では、ブロック963において、基準光ビーム(一実施形態では、遅延されている)の対応する変更振幅および位相を格納する。他の実施形態では、各画素における最小DC光パワーを格納する。更に他の実施形態では、第1振幅変調器436Aおよび第1位相変調器438Aの設定値を格納する。他の実施形態では、補間によって(測定値ならびに対応する位相および振幅値に基づいて)、各画素において最小検出DC光パワーが得られる遅延基準光ビームの変更振幅および位相を計算する。 [0073] In one embodiment, at block 960, the reference light beam is delayed by a first delay. At block 962, the amplitude of the collected scattered light 214S is respectfully substantially equal to and 180 degrees out of phase with the collected scattered light 214S (e.g., the collected scattered light 214S incident on each pixel) ), the amplitude and phase of the delayed reference light beam are varied on a pixel-by-pixel basis. This results in a substantially minimum detected DC light power, or minimum DC light power, at each pixel. In one embodiment, block 963 stores the corresponding modified amplitude and phase of the reference light beam (which in one embodiment is delayed). In another embodiment, the minimum DC optical power at each pixel is stored. In yet another embodiment, the settings for the first amplitude modulator 436A and the first phase modulator 438A are stored. In another embodiment, by interpolation (based on measurements and corresponding phase and amplitude values), the modified amplitude and phase of the delayed reference light beam that yields the minimum detected DC optical power at each pixel is calculated.

[0074] ブロック966において、第2基準光ビーム、例えば、第1基準光ビームの第2部分214D”のパワー・スペクトル密度を、出力光ビーム214Bのパワー・スペクトル密度よりも広くなるように、つまり、出力光ビーム214Bのコヒーレンス関数よりも狭いコヒーレンス関数を有するように、高める。ブロック968において、一実施形態では遅延された第1基準ビームの振幅を、正弦波信号によって変調する。 [0074] At block 966, the power spectral density of the second reference light beam, e.g., the second portion 214D" of the first reference light beam, is adjusted to be broader than the power spectral density of the output light beam 214B, i.e. , such that it has a narrower coherence function than the coherence function of output light beam 214 B. At block 968, in one embodiment, the amplitude of the delayed first reference beam is modulated with a sinusoidal signal.

[0075] ブロック970において、画素毎に、基準光ビームの第2遅延を、ゼロ遅延から、画素に入射する実質的に最大の入射光レベルが検出されるまで調節することによって、例えば、徐々に増大させることによって、正弦波信号の変調周波数における実質的に最大の入射信号レベルを画素上において検出する。画素に対して第2遅延を増大させる前に、その画素に入射する収集散乱光214Sを実質的に打ち消すように、基準ビームの振幅および位相を調節する。一実施形態では、撮像センサ228の全ての画素の内一部(subset)についてブロック970を実行する。 [0075] At block 970, for each pixel, the second delay of the reference light beam is adjusted, for example gradually, from zero delay until a substantially maximum incident light level impinging on the pixel is detected. By increasing, a substantially maximum incident signal level at the modulation frequency of the sinusoidal signal is detected on the pixel. Before increasing the second delay for a pixel, the amplitude and phase of the reference beam are adjusted to substantially cancel the collected scattered light 214S incident on that pixel. In one embodiment, block 970 is performed for a subset of all pixels of image sensor 228 .

[0076] 一実施形態では、画素毎に実質的に最大の入射光レベルを格納する。他の実施形態では、ブロック974において、例えば、第1遅延(第1遅延が使用されない場合ゼロになる)および第2遅延を加算し、その結果得られた和を2で除算し、その結果得られた積に光速を乗算することによって、ターゲット112までの距離を計算する。更に他の実施形態では、画素毎にこの距離を計算するか、または代わりに画素毎に測定された第2遅延全ての平均を取る。更に別の実施形態では、ブロック976において、ターゲット112の画像、例えば、画素毎に実質的に最小の入射DC光レベル、および計算した距離を表示する。
実施形態例
[0077] 例1は、画素を含む撮像センサを有するグレア低減および測距光学撮像システムの動作方法であって、この方法は、パワー・スペクトル密度を有する第1光ビームを生成するステップと、第1光ビームから基準光ビームを生成するステップと、パワー・スペクトル密度を有する第1光ビームを放出するステップと、散乱媒体およびターゲットからそれぞれ反射した散乱光および反射光を集光するステップと、第1光ビームが散乱光と実質的にコヒーレントとなるように、第1光ビームのパワー・スペクトル密度を決定するステップと、基準光ビームが散乱光と実質的にコヒーレントとなるように、第1光ビームのパワー・スペクトル密度を調節するステップと、画素毎に、各画素におけるDC光パワーを最小にするために基準光ビームの振幅および位相を変更するステップと、画素毎に実質的に最小の検出DC光パワーが得られた変更振幅および位相を格納するステップと、第2基準光ビームのパワー・スペクトル密度を高めるステップと、第2基準光ビームの振幅を、周波数を有する正弦波信号によって変調するステップと、画素毎に、基準光ビームの第2遅延を調節することによって、変調周波数における実質的に最大の信号レベルを画素上において検出するステップと、ターゲットまでの距離を判定するステップとを含む。
[0076] In one embodiment, substantially the maximum incident light level is stored for each pixel. In another embodiment, at block 974, for example, the first delay (which is zero if the first delay is not used) and the second delay are added and the resulting sum is divided by two, resulting in Calculate the range to target 112 by multiplying the resulting product by the speed of light. In still other embodiments, this distance is calculated for each pixel, or alternatively it is averaged over all the second delays measured for each pixel. In yet another embodiment, block 976 displays an image of the target 112, eg, the substantially minimum incident DC light level for each pixel, and the calculated distance.
Embodiment example
[0077] Example 1 is a method of operating a glare reduction and ranging optical imaging system having an image sensor including pixels, the method comprising the steps of generating a first light beam having a power spectral density; generating a reference light beam from the one light beam; emitting a first light beam having a power spectral density; collecting scattered light and reflected light reflected from the scattering medium and the target, respectively; determining a power spectral density of a first light beam such that one light beam is substantially coherent with the scattered light; adjusting the power spectral density of the beam; pixel by pixel, varying the amplitude and phase of the reference light beam to minimize the DC light power at each pixel; storing the modified amplitude and phase from which the DC light power is obtained; increasing the power spectral density of the second reference light beam; modulating the amplitude of the second reference light beam with a sinusoidal signal having a frequency; detecting, for each pixel, a substantially maximum signal level at the modulation frequency on the pixel by adjusting a second delay of the reference light beam; and determining the distance to the target. .

[0078] 例2は、例1の方法であって、更に、ターゲットの画像および計算した距離の内少なくとも1つを表示するステップを含む。
[0079] 例3は、例1~2のいずれかの方法であって、更に、基準光ビームを第1遅延だけ遅延させるステップを含む。
[0078] Example 2 is the method of Example 1, further comprising displaying at least one of an image of the target and the calculated distance.
[0079] Example 3 is the method of any of Examples 1-2, further comprising delaying the reference light beam by the first delay.

[0080] 例4は、例1~3のいずれかの方法であって、更に、散乱媒体とグレア低減および測距光学撮像システムとの間の往復遅延に実質的に等しい第1遅延を得るステップを含む。 [0080] Example 4 is the method of any of Examples 1-3, further comprising obtaining a first delay substantially equal to the round trip delay between the scattering medium and the glare reduction and ranging optical imaging system. including.

[0081] 例5は、例4の方法であって、第1遅延を得るステップが、少なくとも1つのセンサから第1遅延を得るステップを含む。
[0082] 例6は、例1~5のいずれかの方法であって、画素毎に実質的に最小の検出DC光パワーが得られた変更振幅および位相を格納するステップが、補間によって決定された変更振幅および位相を格納するステップを含む。
[0081] Example 5 is the method of Example 4, wherein obtaining the first delay comprises obtaining the first delay from at least one sensor.
[0082] Example 6 is the method of any of Examples 1-5, wherein the step of storing the modified amplitude and phase that resulted in the substantially minimum detected DC light power for each pixel is determined by interpolation. storing the modified amplitude and phase.

[0083] 例7は、グレア抑制および測距システムであって、処理システムと、処理システムに結合されたグレア低減および測距光学システムとを含み、グレア低減および測距光学システムが、光源光ビームを生成する光源と、光源に結合された第1信号生成器であって、光源光ビームのパワー・スペクトル密度を変更するように構成される、第1信号生成器と、光源光ビームに光学的に結合された第1ビーム・スプリッタであって、第1ビーム・スプリッタが出力光ビームおよび第1基準光ビームを形成し(create)、出力ビームが放出され、散乱ビームおよび反射ビームを生成するように構成される、第1ビーム・スプリッタと、第1基準光ビームに光学系に結合された第2ビーム・スプリッタであって、第2ビーム・スプリッタが第2基準光ビームを形成する、第2ビーム・スプリッタと、第1基準光ビームの振幅および位相を調節するように構成された第1光プロセッサと、遅延およびパワー・スペクトル密度を調節し、第2基準光ビームを周波数変調するように構成された第2光プロセッサと、画素を含み(comprise)、散乱ビーム、反射ビーム、調節第1光基準ビーム、および調節第2基準光ビームを受光するように構成された撮像センサとを含む。 [0083] Example 7 is a glare suppression and ranging system comprising a processing system and a glare reduction and ranging optical system coupled to the processing system, wherein the glare reduction and ranging optical system is a source light beam and a first signal generator coupled to the light source, the first signal generator configured to alter the power spectral density of the source light beam; a first beam splitter coupled to the first beam splitter, such that the first beam splitter creates an output light beam and a first reference light beam, and the output beam is emitted to produce a scattered beam and a reflected beam; and a second beam splitter optically coupled to the first reference light beam, wherein the second beam splitter forms the second reference light beam. a beam splitter; a first optical processor configured to adjust the amplitude and phase of the first reference light beam; and configured to adjust the delay and power spectral density and frequency modulate the second reference light beam. and an imaging sensor comprising pixels and configured to receive the scattered beam, the reflected beam, the adjusted first optical reference beam, and the adjusted second reference light beam.

[0084] 例8は、例7のグレア抑制および測距システムであって、更に、光源光ビームの遅延を調節するように構成された第3光プロセッサを含む。
[0085] 例9は、例7~8のいずれかのグレア抑制および測距システムであって、処理システムが、更に、メモリと、メモリに結合されたプロセッサとを含む。
[0084] Example 8 is the glare suppression and ranging system of Example 7, further including a third light processor configured to adjust the delay of the source light beam.
[0085] Example 9 is the glare suppression and ranging system of any of Examples 7-8, wherein the processing system further includes a memory and a processor coupled to the memory.

[0086] 例10は、例9のグレア抑制および測距システムであって、メモリが、距離判定および撮像システムと、グレア抑制システムとを含む。
[0087] 例11は、例7~10のいずれかのグレア抑制および測距システムであって、第1光変調器が、処理システムに結合された第1振幅変調器と、振幅変調器および処理システムに結合された第1位相変調器とを含む。
[0086] Example 10 is the glare suppression and ranging system of Example 9, wherein the memory includes the range determination and imaging system and the glare suppression system.
[0087] Example 11 is the glare suppression and ranging system of any of Examples 7-10, wherein the first optical modulator is a first amplitude modulator coupled to the processing system; and a first phase modulator coupled to the system.

[0088] 例12は、例7~11のいずれかのグレア抑制および測距システムであって、第2光変調器が、第1可変光遅延線と、第1光遅延線に結合された第2振幅変調器と、第2振幅変調器に結合された第2位相変調器と、第2振幅変調器に結合された第2信号生成器と、第2位相変調器および処理システムに結合された第3信号生成器とを含む。 [0088] Example 12 is the glare suppression and ranging system of any of Examples 7-11, wherein the second optical modulator is coupled to the first variable optical delay line and to the first optical delay line. a second phase modulator coupled to the second amplitude modulator; a second signal generator coupled to the second amplitude modulator; a second phase modulator and coupled to the processing system and a third signal generator.

[0089] 例13は、例7~12のいずれかのグレア抑制および測距システムであって、更に、撮像センサに光学的に結合された対物レンズを含む。
[0090] 例14は、グレア抑制および測距システムを含むシステムであって、グレア抑制および測距システムが、処理システムと、処理システムに結合されたグレア低減および測距光学システムとを含む。グレア低減および測距光学システムは、光源光ビームを生成する光源と、光源に結合された第1信号生成器であって、第1信号生成器が光源光ビームのパワー・スペクトル密度を変更するように構成される、第1信号生成器と、光源光ビームに光学的に結合された第1ビーム・スプリッタであって、第1ビーム・スプリッタが出力光ビームと第1基準光ビームとを生成し、出力光ビームが放出されるように構成され、散乱ビームおよび反射ビームを生成する、第1ビーム・スプリッタと、第1基準光ビームに光学的に結合された第2ビーム・スプリッタであって、第2ビーム・スプリッタが第2基準光ビームを形成する、第2ビーム・スプリッタと、第1基準光ビームの振幅および位相を調節するように構成された第1光プロセッサと、遅延およびパワー・スペクトル密度を調節し、第2基準光ビームを周波数変調するように構成された第2光プロセッサと、画素を含み(comprise)、散乱ビーム、反射ビーム、調節第1光基準ビーム、および調節第2基準光ビームを受光するように構成された撮像センサと、少なくとも1つの入力/出力デバイスとを含む。
[0089] Example 13 is the glare suppression and ranging system of any of Examples 7-12, further including an objective lens optically coupled to the imaging sensor.
[0090] Example 14 is a system including a glare suppression and ranging system, the glare suppression and ranging system including a processing system and a glare reduction and ranging optical system coupled to the processing system. The glare reduction and ranging optical system includes a light source that produces a source light beam and a first signal generator coupled to the light source, wherein the first signal generator alters a power spectral density of the source light beam. and a first beam splitter optically coupled to the source light beam, wherein the first beam splitter produces an output light beam and a first reference light beam, comprising: , a first beam splitter configured to emit an output light beam to produce a scattered beam and a reflected beam, and a second beam splitter optically coupled to the first reference light beam, wherein a second beam splitter, the second beam splitter forming a second reference light beam; a first optical processor configured to adjust the amplitude and phase of the first reference light beam; and a delay and power spectrum. a second optical processor configured to adjust the density and frequency modulate the second reference light beam; and comprising pixels, the scattered beam, the reflected beam, the adjusted first optical reference beam, and the adjusted second reference. It includes an imaging sensor configured to receive a beam of light and at least one input/output device.

[0091] 例15は、例14のシステムであって、更に、(a)グレア抑制および測距システムに結合された少なくとも1つのセンサ、(b)グレア抑制および測距システムに結合された時間、位置、およびベクトル速度検出システム、ならびに(c)グレア抑制および測距システムに結合された通信システムの内少なくとも1つを含む。 [0091] Example 15 is the system of Example 14, further comprising: (a) at least one sensor coupled to the glare suppression and ranging system; (b) time coupled to the glare suppression and ranging system; position and vector velocity detection system; and (c) a communication system coupled to the glare suppression and ranging system.

[0092] 例16は、例14~15のいずれかのグレア抑制および測距システムであって、更に、光源光ビームの遅延を調節するように構成された第3光プロセッサを含む。
[0093] 例17は、例14~16のいずれかのグレア抑制および測距システムであって、 処理システムが、更に、メモリと、メモリに結合されたプロセッサとを含む。
[0092] Example 16 is the glare suppression and ranging system of any of Examples 14-15, further including a third optical processor configured to adjust the delay of the source light beam.
[0093] Example 17 is the glare suppression and ranging system of any of Examples 14-16, wherein the processing system further includes a memory and a processor coupled to the memory.

[0094] 例18は、例14~17のいずれかのグレア抑制および測距システムであって、メモリが、距離判定および撮像システムと、グレア抑制システムとを含む。
[0095] 例19は、例14~18のいずれかのグレア抑制および測距システムであって、第1光変調器が、処理システムに結合された第1振幅変調器と、振幅変調器および処理システムに結合された第1位相変調器とを含む。
[0094] Example 18 is the glare suppression and ranging system of any of Examples 14-17, wherein the memory includes the range determination and imaging system and the glare suppression system.
[0095] Example 19 is the glare suppression and ranging system of any of Examples 14-18, wherein the first optical modulator is a first amplitude modulator coupled to the processing system; and a first phase modulator coupled to the system.

[0096] 例20は、例14~19のいずれかのグレア抑制および測距システムであって、第2光変調器が、第1可変光遅延線と、第1光遅延線に結合された第2振幅変調器と、第2振幅変調器に結合された第2位相変調器と、第2振幅変調器に結合された第2信号生成器と、第2位相変調器および処理システムに結合された第3信号生成器とを含む。 [0096] Example 20 is the glare suppression and ranging system of any of Examples 14-19, wherein the second optical modulator is coupled to the first variable optical delay line and to the first optical delay line. a second phase modulator coupled to the second amplitude modulator; a second signal generator coupled to the second amplitude modulator; a second phase modulator and coupled to the processing system and a third signal generator.

[0097] 本明細書では、具体的な実施形態について例示および説明したが、同じ目的を達成すると考えられる任意の構成(arrangement)を、図示した具体的な実施形態の代わりに使用してもよいことは、当業者には認められよう。したがって、本発明は、特許請求の範囲およびその均等物によってのみ限定されることを意図しているのは明らかである。
[0097] Although specific embodiments have been illustrated and described herein, any arrangement believed to achieve the same purpose may be used in place of the specific embodiments illustrated. It will be appreciated by those skilled in the art. Therefore, it is manifestly intended that this invention be limited only by the claims and the equivalents thereof.

Claims (3)

グレア抑制および測距システムであって、
処理システムと
前記処理システムに結合されたグレア低減および測距光学システムと
を含み、前記グレア低減および測距光学システムが
光源光ビームを生成するように構成された源と
前記光源に結合された第1信号生成器と
前記第1信号生成器が前記光源光ビームのパワー・スペクトル密度を変更するように構成され、
前記光源光ビームに光学的に結合された第1ビーム・スプリッタと
前記第1ビーム・スプリッタが、出力光ビームと第1基準光ビームとを形成するように構成され
前記出力光ビームが、放出され、散乱ビームと反射ビームとを生成するように構成され、
前記第1基準光ビームに光学的に結合された第2ビーム・スプリッタと
前記第2ビーム・スプリッタが第2基準光ビームを形成するように構成され
前記第1基準光ビームの振幅および位相を調節するように構成された第3光プロセッサと
前記第2基準光ビームの遅延およびパワー・スペクトル密度を調節し、前記第2基準光ビームを周波数変調するように構成された第2光プロセッサと
前記光源光ビームの遅延を調節するように構成された第1光プロセッサと、
画素を含み、前記散乱ビーム、前記反射ビーム、第3光基準ビーム、および第4基準光ビームを受光するように構成された撮像センサと
を含む、グレア抑制および測距システム。
A glare suppression and ranging system comprising:
a processing system ;
a glare reduction and ranging optical system coupled to the processing system ;
wherein the glare reduction and ranging optical system comprises
a light source configured to generate a source light beam ;
a first signal generator coupled to the light source ;
wherein the first signal generator is configured to alter the power spectral density of the source light beam ;
a first beam splitter optically coupled to the source light beam ;
wherein the first beam splitter is configured to form an output light beam and a first reference light beam;
the output light beam is configured to be emitted to produce a scattered beam and a reflected beam ;
a second beam splitter optically coupled to the first reference light beam;
wherein the second beam splitter is configured to form a second reference light beam;
a third optical processor configured to adjust the amplitude and phase of the first reference light beam;
a second optical processor configured to adjust the delay and power spectral density of the second reference light beam and frequency modulate the second reference light beam;
a first optical processor configured to adjust the delay of the light source light beam;
an imaging sensor comprising pixels and configured to receive the scattered beam, the reflected beam, a third optical reference beam, and a fourth optical reference beam;
glare suppression and ranging systems, including;
請求項1記載のグレア抑制および測距システムであって、更に、前記撮像センサに光学的に結合された対物レンズを含む、グレア抑制および測距システム。 2. The glare suppression and ranging system of claim 1, further comprising an objective lens optically coupled to said imaging sensor . 請求項1記載のグレア抑制および測距システムにおいて、前記第3プロセッサが、
前記処理システムに結合された第1振幅変調器と、
前記第1振幅変調器および前記処理システムに結合された第1位相変調器と、
を含み、
前記第2光プロセッサが、
第1可変光遅延線と、
前記第1可変光遅延線に結合された第2振幅変調器と、
前記第2振幅変調器に結合された第2位相変調器と、
前記第2振幅変調器に結合された第2信号生成器と、
前記第2位相変調器および前記処理システムに結合された第3信号生成器と、
を含む、グレア抑制および測距システム。
2. The glare suppression and ranging system of claim 1, wherein the third light processor comprises:
a first amplitude modulator coupled to the processing system;
a first phase modulator coupled to the first amplitude modulator and the processing system;
including
the second optical processor ,
a first variable optical delay line;
a second amplitude modulator coupled to the first variable optical delay line;
a second phase modulator coupled to the second amplitude modulator;
a second signal generator coupled to the second amplitude modulator;
a third signal generator coupled to the second phase modulator and the processing system;
glare suppression and ranging systems, including;
JP2018057658A 2017-03-27 2018-03-26 Glare suppression and ranging system and method Active JP7122842B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762476967P 2017-03-27 2017-03-27
US62/476,967 2017-03-27
US15/604,390 US10578722B2 (en) 2017-03-27 2017-05-24 System and method for glare suppression and ranging
US15/604,390 2017-05-24

Publications (2)

Publication Number Publication Date
JP2018200302A JP2018200302A (en) 2018-12-20
JP7122842B2 true JP7122842B2 (en) 2022-08-22

Family

ID=61691825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018057658A Active JP7122842B2 (en) 2017-03-27 2018-03-26 Glare suppression and ranging system and method

Country Status (3)

Country Link
US (1) US10578722B2 (en)
EP (1) EP3382422B1 (en)
JP (1) JP7122842B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017209259A1 (en) * 2017-06-01 2018-12-06 Robert Bosch Gmbh lidar
US11835923B2 (en) * 2020-11-06 2023-12-05 Maxar Mission Solutions Inc. Imaging through scattering media
US11811456B2 (en) * 2021-03-30 2023-11-07 Honeywell International Inc. Multi-pixel waveguide optical receiver

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002040368A (en) 2000-07-27 2002-02-06 National Institute Of Advanced Industrial & Technology Optically driven type wave front correction video method and device
JP2008175698A (en) 2007-01-18 2008-07-31 Univ Of Tsukuba Image processing method and image processing apparatus of optical coherence tomography
US20090147341A1 (en) 2007-12-06 2009-06-11 Steven Edward Muenter Coherence Length Controller
JP2017536547A (en) 2014-11-20 2017-12-07 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ Speckle reduction in optical coherence tomography images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5424749A (en) 1994-03-21 1995-06-13 The United States Of America As Represented By The Secretary Of The Air Force Vibrating object assessment from a pulse operated vibrating sensor
US10194100B2 (en) * 2006-10-06 2019-01-29 California Institute Of Technology Glare suppression through fog by optical phase conjugation assisted active cancellation
US9110163B2 (en) 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002040368A (en) 2000-07-27 2002-02-06 National Institute Of Advanced Industrial & Technology Optically driven type wave front correction video method and device
JP2008175698A (en) 2007-01-18 2008-07-31 Univ Of Tsukuba Image processing method and image processing apparatus of optical coherence tomography
US20090147341A1 (en) 2007-12-06 2009-06-11 Steven Edward Muenter Coherence Length Controller
JP2017536547A (en) 2014-11-20 2017-12-07 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ Speckle reduction in optical coherence tomography images

Also Published As

Publication number Publication date
US10578722B2 (en) 2020-03-03
EP3382422B1 (en) 2020-10-14
JP2018200302A (en) 2018-12-20
EP3382422A1 (en) 2018-10-03
US20180275254A1 (en) 2018-09-27

Similar Documents

Publication Publication Date Title
US20200256994A1 (en) Method and System for Using Square Wave Digital Chirp Signal for Optical Chirped Range Detection
CN109254275B (en) Laser diode optical frequency modulation linearization algorithm
JP7122842B2 (en) Glare suppression and ranging system and method
JP7169642B2 (en) Optical measuring device and measuring method
KR102059322B1 (en) Laser Beam Projection System with Dynamic Phase Compensation
US20150015891A1 (en) Systems and methods for supressing coherent structured illumination artifacts
IL221961A (en) Method and apparatus for range resolved laser doppler vibrometry
US11353558B2 (en) Multiple laser, single resonator lidar
US20160231420A1 (en) System and method for detecting an object or recess on a surface
US20200003879A1 (en) Lidar system utilizing sensor in same optical path as emitting laser
EP3881097B1 (en) Fmcw lidar with wavelength diversity
WO2022132822A1 (en) Lidar devices with frequency and time multiplexing of sensing signals
JP2023545775A (en) Ghost reduction technology in coherent LIDAR systems
US10295673B1 (en) Nested interferometer for optical autocovariance lidar
US11988746B2 (en) Multi-axis velocity and rangefinder optical measurement device
CN110865354A (en) Flash radar and detection method
WO2020076725A1 (en) Lidar with dynamically variable resolution in selected areas within a field of view
US20240183956A1 (en) Techniques for simulating electro-optical behavior in a circuit
US20240183954A1 (en) Techniques for a laser driver circuit with analog mixer and offset
Kirsanov A phase-amplitude-modulation technique. Applications to laser ranging and vibrodiagnostics
Землянський et al. Independence of doppler effect from wave-length at the multiwave concerted sounding and reception

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7122842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150