JP6265365B2 - Measuring system - Google Patents

Measuring system Download PDF

Info

Publication number
JP6265365B2
JP6265365B2 JP2013099731A JP2013099731A JP6265365B2 JP 6265365 B2 JP6265365 B2 JP 6265365B2 JP 2013099731 A JP2013099731 A JP 2013099731A JP 2013099731 A JP2013099731 A JP 2013099731A JP 6265365 B2 JP6265365 B2 JP 6265365B2
Authority
JP
Japan
Prior art keywords
light
unit
image
polygon mirror
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013099731A
Other languages
Japanese (ja)
Other versions
JP2014219330A (en
Inventor
真人 佐々木
真人 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2013099731A priority Critical patent/JP6265365B2/en
Publication of JP2014219330A publication Critical patent/JP2014219330A/en
Application granted granted Critical
Publication of JP6265365B2 publication Critical patent/JP6265365B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Mechanical Optical Scanning Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、遠距離にある対象にレーザー照射を行いつつ対象からの散乱光を測定することにより、対象の状態を広域に亘って高速で計測する計測システムに関する。   The present invention relates to a measurement system that measures the state of an object at high speed over a wide area by measuring scattered light from the object while irradiating an object at a long distance with laser irradiation.

パルス状に発光するレーザー照射に対する散乱光を測定し、遠距離にある対象の性質を分析する技術として、バイスタティック型のLIDAR(Light Detection and Ranging)と呼ばれるものが存在する(非特許文献1、特許文献1等参照)。   As a technique for measuring scattered light in response to pulsed laser irradiation and analyzing the properties of objects at a long distance, there is a technique called bistatic LIDAR (Light Detection and Ranging) (Non-Patent Document 1, (See Patent Document 1).

従来のバイスタティック型のLIDAR装置は、遠隔の対象物からの角度散乱光又は前方散乱光を検出するので、比較的高強度の光を検出することができ、エアロゾルや粒子を含む対象物の濃度、サイズ、屈折率等に関する情報を高感度かつ高解像度で測定することができる。   The conventional bistatic type LIDAR apparatus detects angle scattered light or forward scattered light from a remote object, so that it can detect relatively high-intensity light, and the concentration of the object including aerosol and particles. Information on size, refractive index, etc. can be measured with high sensitivity and high resolution.

しかしながら、従来のバイスタティック型のLIDAR装置では、送信装置と受信装置との間で精密な同期をとる必要があり(例えば特許文献1参照)、遠距離になるほど送受信装置間の同期精度を維持することが困難になり、広域になるほど精密な測定が困難にならざるを得ない。   However, in the conventional bistatic type LIDAR device, it is necessary to precisely synchronize between the transmission device and the reception device (see, for example, Patent Document 1), and the synchronization accuracy between the transmission and reception devices is maintained as the distance increases. It becomes difficult to measure accurately as the area becomes wider.

IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING, VOL. GE-20, NO.3, JULY 1982, 229-235IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING, VOL.GE-20, NO.3, JULY 1982, 229-235

特開2004−309367号公報JP 2004-309367 A

本発明は、上記背景に鑑みてなされたものであり、送信装置と受信装置との間で精密な同期をとる必要がなく、比較的簡易に広域に広がる大気等に対して、高速かつ精密な常時監視が可能となる計測システムを提供することを目的とする。   The present invention has been made in view of the above background, and does not require precise synchronization between the transmitting device and the receiving device, and is relatively fast and precise with respect to the atmosphere that spreads over a wide area relatively easily. An object is to provide a measurement system that can be constantly monitored.

上記目的を達成するため、本発明に係る計測システムは、パルス状のレーザー光を射出するとともに、レーザー光の射出方向を少なくとも1次元以上の走査で変化させる照明部と、照明部を動作させる照明駆動部とを有する射出装置と、照明部によって射出方向が変化するレーザー光によって照明された対象からの非後方型の散乱光を所定以上の画角で一括して検出する撮像装置と、撮像装置に付随するトリガー部に同期して撮像装置に画像の取り込みを行わせる撮像駆動部とを有し、前記射出装置から離れて配置されて前記射出装置から独立した自己トリガー型の動作を行う受光装置とを備える。 In order to achieve the above object, a measurement system according to the present invention emits a pulsed laser beam, changes an emission direction of the laser beam by at least one-dimensional scanning, and illumination that operates the illumination unit. An ejection device having a drive unit, an imaging device that collectively detects non-rear-type scattered light from a target illuminated by a laser beam whose emission direction is changed by an illumination unit, and a predetermined angle of view; and an imaging device A light-receiving device that has an image-capturing drive unit that causes the image-capturing device to capture an image in synchronization with a trigger unit that is attached to the light-receiving device and that is arranged apart from the ejecting device and performs a self-triggered operation independent of the ejecting device With .

上記計測システムによれば、パルス状のレーザー光によって照明された対象からの非後方型の散乱光を1次元以上の走査で一括して検出するので、広域に亘る対象の状態を一括して検出することができる。この際、撮像駆動部が撮像装置に付随するトリガー部に同期して撮像装置に画像の取り込みを行わせるので、パルス状のレーザー光に応じた対象からの散乱光を選択的に検出して強度情報を得ることができ、画像上の位置から対象の方位情報(例えば、方位角、仰角等)も得ることができる。これにより、例えば大気中のエアロゾルの密度分布その他に関する各種情報を簡易に比較的高い信頼性で得ることができる。   According to the above measurement system, the non-rear scattered light from the object illuminated by the pulsed laser beam is collectively detected by one-dimensional scanning or more, so the state of the object over a wide area is collectively detected. can do. At this time, since the imaging drive unit causes the imaging device to capture an image in synchronization with a trigger unit attached to the imaging device, the scattered light from the target corresponding to the pulsed laser beam is selectively detected and the intensity Information can be obtained, and azimuth information (for example, azimuth angle, elevation angle, etc.) of the object can be obtained from the position on the image. As a result, for example, various types of information relating to the density distribution of aerosols in the atmosphere can be easily obtained with relatively high reliability.

本発明の具体的な側面によれば、上記計測システムにおいて、撮像装置に取り込まれた画像信号に基づいて、散乱係数の2次元以上の分布を決定する演算処理部をさらに備える。撮像装置によって取り込んだ画像中の散乱光すなわち検出光の強度や位置に基づいて光路に沿った対象の散乱又は消散係数の見積値を評価することができ、光路を徐々に変更することで、演算処理部によって2次元的又は3次元的な散乱係数又は消散係数の分布を決定することができる。   According to a specific aspect of the present invention, the measurement system further includes an arithmetic processing unit that determines a two-dimensional or higher distribution of the scattering coefficient based on the image signal captured by the imaging device. The estimated value of the scattering or extinction coefficient of the target along the optical path can be evaluated based on the scattered light in the image captured by the imaging device, that is, the intensity and position of the detected light, and the calculation is performed by gradually changing the optical path. The distribution of the two-dimensional or three-dimensional scattering coefficient or extinction coefficient can be determined by the processing unit.

本発明の別の側面によれば、演算処理部は、所定の初期情報からの逆解析によって例えば3次元的な散乱係数の分布を算出する。つまり、既知の光路に関して散乱係数又は消散係数が分かっている場合、これを所定の初期情報として逆解析することで、対象における2次元的又は3次元的な散乱係数又は消散係数の分布を算定することが可能になる。   According to another aspect of the present invention, the arithmetic processing unit calculates, for example, a three-dimensional scattering coefficient distribution by inverse analysis from predetermined initial information. That is, when the scattering coefficient or the extinction coefficient is known for a known optical path, the distribution of the two-dimensional or three-dimensional scattering coefficient or the extinction coefficient in the object is calculated by performing inverse analysis as predetermined initial information. It becomes possible.

本発明のさらに別の側面によれば、照明部は、直交する第1及び第2回転軸のまわりにそれぞれ回転する第1及び第2ポリゴンミラーと、第1ポリゴンミラーの光射出側に配置されて第2ポリゴンミラーの反射面に入射する光線の角度範囲を減少させる第1光学素子と、第2ポリゴンミラーの光射出側に配置されて第1光学素子に入射する前の光線の角度を比例的に復元する第2光学素子とを有する光走査部を備える。この場合、第1ポリゴンミラーの光射出側に配置される第1光学素子が第2ポリゴンミラーの反射面に入射する光線の角度範囲を減少させ、第2ポリゴンミラーの光射出側に配置される第2光学素子が第1光学素子に入射する前の光線の角度を比例的に復元するので、第1及び第2ポリゴンミラーによる走査の角度範囲が比較的大きくなっても、射出方向の歪みを低減して正確な角度で走査を行なうことができる。   According to still another aspect of the present invention, the illumination unit is disposed on the light exit side of the first and second polygon mirrors, the first and second polygon mirrors rotating around the orthogonal first and second rotation axes, respectively. The first optical element that reduces the angular range of light incident on the reflecting surface of the second polygon mirror and the angle of the light before being incident on the first optical element disposed on the light exit side of the second polygon mirror are proportional to each other. The optical scanning part which has the 2nd optical element to restore | restore automatically. In this case, the first optical element arranged on the light exit side of the first polygon mirror reduces the angle range of light rays incident on the reflecting surface of the second polygon mirror, and is arranged on the light exit side of the second polygon mirror. Since the angle of the light beam before the second optical element is incident on the first optical element is proportionally restored, even if the angle range of scanning by the first and second polygon mirrors is relatively large, distortion in the emission direction is reduced. Scanning can be performed at an accurate angle with reduced.

本発明のさらに別の側面によれば、第1光学素子は、第2ポリゴンミラーの反射面に入射する光線の第2回転軸に平行な所定面に沿った入射角度を、互いに略一致させ、第2光学素子は、第2ポリゴンミラーの反射面で反射された光線の第2回転軸に平行な別の所定面に沿った射出角度を、第1ポリゴンミラーの反射面で反射された光線の第2回転軸に平行な所定面に沿った射出角度に略一致させる。これにより、第1ポリゴンミラーによる反射の偏角が維持されて、第1ポリゴンミラーと第2ポリゴンミラーとを同一の手法で制御する簡易な2次元走査が可能になる。   According to still another aspect of the present invention, the first optical element substantially matches the incident angles along a predetermined plane parallel to the second rotation axis of the light incident on the reflecting surface of the second polygon mirror, The second optical element has an emission angle along another predetermined plane parallel to the second rotation axis of the light beam reflected by the reflection surface of the second polygon mirror, and the light beam reflected by the reflection surface of the first polygon mirror. It is made to substantially coincide with the injection angle along a predetermined plane parallel to the second rotation axis. Thereby, the deflection angle of the reflection by the first polygon mirror is maintained, and simple two-dimensional scanning in which the first polygon mirror and the second polygon mirror are controlled by the same method becomes possible.

本発明のさらに別の側面によれば、撮像装置は、散乱光含む像を検出する光電撮像管を有し、トリガー部は、光電撮像管に付随して設けられ、前記撮像装置から信号を取り出すタイミングを設定する。この場合、光電撮像管等によって、予測が困難な微弱な散乱光を検出光と並行して高感度で撮像することができ、高速の事象を的確に記録することができる。   According to still another aspect of the present invention, the imaging device includes a photoelectric imaging tube that detects an image including scattered light, and the trigger unit is provided along with the photoelectric imaging tube and extracts a signal from the imaging device. Set the timing. In this case, weak scattered light that is difficult to predict can be imaged with high sensitivity in parallel with the detection light by a photoelectric imaging tube or the like, and a high-speed event can be accurately recorded.

本発明のさらに別の側面によれば、撮像装置は、光電撮像管としてのイメージインテンシファイアの出力を検出するCCD型撮像素子及びCMOS型撮像素子のいずれか一方である固体撮像素子を含み、トリガー部から出力されるタイミング信号に基づいて固体撮像素子を動作させる。この場合、光電撮像管に同期させて固体撮像素子を高速で動作させて高精度の計測が可能になる。

According to still another aspect of the present invention, an imaging device includes a solid-state imaging device that is one of a CCD type imaging device and a CMOS type imaging device that detects an output of an image intensifier as a photoelectric imaging tube, The solid-state imaging device is operated based on the timing signal output from the trigger unit. In this case, it is possible to perform high-precision measurement by operating the solid-state imaging device at high speed in synchronization with the photoelectric imaging tube.

実施形態の計測システムの全体を説明する概略図である。It is a schematic diagram explaining the whole measuring system of an embodiment. 計測システムの射出装置側を説明するブロック図である。It is a block diagram explaining the injection device side of a measurement system. 射出装置のうち走査装置本体の光学系部分を説明する斜視図である。It is a perspective view explaining the optical system part of a scanning device main body among injection devices. 光学系部分を展開して説明する概念図である。It is a conceptual diagram which expands and demonstrates an optical system part. (A)は、光学系部分によるレーザー光の走査パターンの一例を説明する図であり、(B)は、受光装置による観測を説明する斜視図である。(A) is a figure explaining an example of the scanning pattern of the laser beam by an optical system part, (B) is a perspective view explaining the observation by a light-receiving device. 計測システムの受光装置側を説明する図である。It is a figure explaining the light-receiving device side of a measurement system. 受光装置の光増幅部等を説明する側方断面の概念図である。It is a conceptual diagram of the side cross section explaining the optical amplification part etc. of a light-receiving device. 受光装置の撮像装置を説明する図である。It is a figure explaining the imaging device of a light-receiving device. 受光装置の主制御部を概念的に説明するブロック図である。It is a block diagram which illustrates notionally the main control part of a light-receiving device. 実施形態の計測システムを用いた一計測法を説明する原理図である。It is a principle figure explaining one measuring method using the measuring system of an embodiment.

以下、図面を参照して、本発明の一実施形態に係る計測システムについて詳細に説明する。   Hereinafter, a measurement system according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1に示す実施形態の計測システム1000は、大気中のエアロゾル(汚染物質微粒子等)の状態をリアルタイムで監視するためのものであり、光照射側の射出装置100と光検出側の受光装置200とを一組として備える。射出装置100は、本体1aと架台1bとを有し、受光装置200も、本体2aと架台2bとを有する。これらの射出装置100と受光装置200とは、地表上において例えば数10km程度離れて固定的に配置されている。射出装置100からは、照明光としてパルス状のレーザー光L1が2次元的な方位に走査されるように射出され、レーザー光L1によって照明された広域に広がる対象物OBからは、非後方型の散乱光として検出光L2が射出される。受光装置200は、対象物OBからの微弱な検出光L2を自己トリガー機能によって選択的に検出する。なお、射出装置100と受光装置200とは、連携した動作を行っているが、共通するトリガー信号によって同期をとるような精密な同期動作は行っていない。   A measurement system 1000 according to the embodiment shown in FIG. 1 is for monitoring the state of aerosols (contaminant particulates and the like) in the air in real time, and includes an emission device 100 on the light irradiation side and a light receiving device 200 on the light detection side. And as a set. The injection device 100 has a main body 1a and a gantry 1b, and the light receiving device 200 also has a main body 2a and a gantry 2b. The emitting device 100 and the light receiving device 200 are fixedly arranged, for example, about several tens km apart on the ground surface. From the emitting device 100, pulsed laser light L1 is emitted as illumination light so as to be scanned in a two-dimensional direction, and the object OB spread over a wide area illuminated by the laser light L1 is a non-rear type. Detection light L2 is emitted as scattered light. The light receiving device 200 selectively detects the weak detection light L2 from the object OB by the self-trigger function. In addition, although the injection | emission apparatus 100 and the light-receiving device 200 are performing the operation | movement which cooperated, the exact synchronous operation which synchronizes with a common trigger signal is not performed.

図2に示すように、射出装置100は、レーザー光をパルス状に射出する光源装置10と、光源装置10からのレーザー光を走査するための走査装置本体20と、射出装置100を構成する各部の動作を統括的に制御する走査制御部であり撮像制御部である主制御部101とを備える。ここで、光源装置10と走査装置本体20とは、パルス状のレーザー光L1の射出方向を2次元の走査によって変化させる照明部として機能し、主制御部101は、かかる照明部を動作させるための照明駆動部として機能している。この射出装置100は、大気に向けて離散的かつ略均等に分布する角度方向となるようにパルス状のレーザー光を照射する。   As shown in FIG. 2, the emission device 100 includes a light source device 10 that emits laser light in pulses, a scanning device main body 20 that scans laser light from the light source device 10, and each component that constitutes the emission device 100. A main control unit 101 which is a scanning control unit and an imaging control unit that comprehensively controls the operation of the above. Here, the light source device 10 and the scanning device main body 20 function as an illumination unit that changes the emission direction of the pulsed laser light L1 by two-dimensional scanning, and the main control unit 101 operates the illumination unit. It functions as an illumination drive unit. This injection device 100 irradiates pulsed laser light so as to have an angular direction distributed discretely and substantially uniformly toward the atmosphere.

光源装置10は、主制御部101の制御下で動作しており、レーザー発生装置11と発振駆動装置12とを備える。レーザー発生装置11は、パルス型のレーザー発振器であり、例えば電気光学型Qスイッチを組み込んだダイオード励起固体レーザー等を用いることができる。発振駆動装置12は、Qスイッチトリガー回路であり、レーザー発生装置11を所望のタイミングで発振動作させる。つまり、発振駆動装置12は、主制御部101からのトリガーパルスを受けてレーザー発生装置11のQスイッチを動作させ、レーザー発生装置11から光線として例えば周期的なレーザー光RAを射出させる。   The light source device 10 operates under the control of the main control unit 101, and includes a laser generator 11 and an oscillation drive device 12. The laser generator 11 is a pulse-type laser oscillator, and for example, a diode-excited solid laser incorporating an electro-optical Q switch can be used. The oscillation driver 12 is a Q switch trigger circuit, and causes the laser generator 11 to oscillate at a desired timing. In other words, the oscillation drive device 12 receives the trigger pulse from the main control unit 101 and operates the Q switch of the laser generator 11 to emit, for example, periodic laser light RA as a light beam from the laser generator 11.

走査装置本体20は、第1ポリゴンミラー51と第2ポリゴンミラー52とを備える光学部21と、第1ポリゴンミラー51用の第1モーター駆動ユニット23と、第2ポリゴンミラー52用の第2モーター駆動ユニット24と、第1及び第2モーター駆動ユニット23,24の動作を制御するためのミラー回転制御部25と、ミラー回転制御部25、光源装置10等を同期させて動作させるためのパルス発生装置27とを備える。   The scanning device main body 20 includes an optical unit 21 including a first polygon mirror 51 and a second polygon mirror 52, a first motor drive unit 23 for the first polygon mirror 51, and a second motor for the second polygon mirror 52. Pulse generation for synchronizing and operating the drive unit 24, the mirror rotation control unit 25 for controlling the operation of the first and second motor drive units 23, 24, the mirror rotation control unit 25, the light source device 10 and the like Device 27.

図3に示すように、光学部21は、第1回転軸AX1のまわりに回転する第1ポリゴンミラー51と、第2回転軸AX2のまわりに回転する第2ポリゴンミラー52と、第1ポリゴンミラー51の光射出側に配置されて、第1ポリゴンミラー51から射出される光線であるレーザー光RA1の状態を調整する第1光学素子53と、第2ポリゴンミラー52の光射出側に配置されて、第2ポリゴンミラー52から射出される光線であるレーザー光RA2の状態を調整する第2光学素子54と、第1ポリゴンミラー51を回転させる第1駆動部55と、第2ポリゴンミラー52を回転させる第2駆動部56とを備える。なお、光学部21には、図2に示すように、第1ポリゴンミラー51に付随してミラー面検出器である1つ以上の第1センサー57が設けられており、第2ポリゴンミラー52に付随してミラー面検出器である1つ以上の第2センサー58が設けられている。   As shown in FIG. 3, the optical unit 21 includes a first polygon mirror 51 that rotates about the first rotation axis AX1, a second polygon mirror 52 that rotates about the second rotation axis AX2, and a first polygon mirror. The first optical element 53 that adjusts the state of the laser beam RA1 that is a light beam emitted from the first polygon mirror 51 and the light emission side of the second polygon mirror 52 are arranged on the light emission side of the first polygon mirror 51. The second optical element 54 that adjusts the state of the laser beam RA2 that is a light beam emitted from the second polygon mirror 52, the first drive unit 55 that rotates the first polygon mirror 51, and the second polygon mirror 52 are rotated. And a second drive unit 56 to be operated. As shown in FIG. 2, the optical unit 21 is provided with one or more first sensors 57 that are mirror surface detectors attached to the first polygon mirror 51, and the second polygon mirror 52 includes Along with this, one or more second sensors 58 which are mirror surface detectors are provided.

第1ポリゴンミラー51の第1回転軸AX1は、Z軸に平行に延びており、第2ポリゴンミラー52の第2回転軸AX2は、第1回転軸AX1すなわちZ軸に対して垂直なX軸に平行に延びている。第1ポリゴンミラー51の反射面51aは、図2の光源装置10からのレーザー光RA0を反射して、第1段階の走査光であるレーザー光RA1を射出する。第2ポリゴンミラー52の反射面52aは、第1ポリゴンミラー51の反射面51aで反射され第1光学素子53を通過したレーザー光RA1を反射して、第2段階の走査光であるレーザー光RA2を射出する。第2ポリゴンミラー52の反射面52aからのレーザー光RA2は、第2光学素子54を通過する。具体的に説明すると、元のレーザー光RA0は、XY面に平行であってX軸に平行に近い方向から第1ポリゴンミラー51の反射面51aに入射する。また、反射面51aでの反射によって偏向されて第1段階の走査光となったレーザー光RA1は、第1光学素子53を通過してY軸に平行な方向から第2ポリゴンミラー52の反射面52aに入射する。この反射面52aでの反射によって偏向されて第2段階の走査光となったレーザー光RA2は、第2光学素子54を通過することで第1段階の走査状態が再現され、2次元的に走査される光線、すなわち図1に示す射出装置100から射出されるレーザー光L1となる。   The first rotation axis AX1 of the first polygon mirror 51 extends parallel to the Z axis, and the second rotation axis AX2 of the second polygon mirror 52 is the first rotation axis AX1, that is, the X axis perpendicular to the Z axis. It extends parallel to. The reflective surface 51a of the first polygon mirror 51 reflects the laser beam RA0 from the light source device 10 of FIG. 2 and emits the laser beam RA1 that is the first stage scanning beam. The reflection surface 52a of the second polygon mirror 52 reflects the laser light RA1 reflected by the reflection surface 51a of the first polygon mirror 51 and passed through the first optical element 53, and laser light RA2 which is the second stage scanning light. Inject. The laser beam RA2 from the reflecting surface 52a of the second polygon mirror 52 passes through the second optical element 54. More specifically, the original laser beam RA0 is incident on the reflecting surface 51a of the first polygon mirror 51 from a direction parallel to the XY plane and close to the X axis. The laser beam RA1 deflected by the reflection at the reflecting surface 51a to become the first-stage scanning light passes through the first optical element 53 and is reflected from the second polygon mirror 52 from the direction parallel to the Y axis. Incident on 52a. The laser beam RA2, which is deflected by the reflection on the reflecting surface 52a and becomes the second stage scanning light, passes through the second optical element 54, thereby reproducing the first stage scanning state and scanning two-dimensionally. The light beam to be emitted, that is, the laser beam L1 emitted from the emission device 100 shown in FIG.

ここで、第1段階の走査光であるレーザー光RA1は、第1ポリゴンミラー51によってXY面に平行な所定面内で放射状に発散するように走査されるが、第1光学素子53によってY軸に平行にされる。このため、第1光学素子53は、精度向上も考慮して非球面のシリンドリカルレンズとなっている。第1光学素子53の光軸AXIは、Y軸に平行であるものとし、第1光学素子53は、XY断面において曲率を有し、YZ断面において曲率を有しないものとなっている。   Here, the laser beam RA1 that is the first-stage scanning light is scanned by the first polygon mirror 51 so as to radiate radially within a predetermined plane parallel to the XY plane. To be parallel. Therefore, the first optical element 53 is an aspheric cylindrical lens in consideration of accuracy improvement. The optical axis AXI of the first optical element 53 is assumed to be parallel to the Y axis, and the first optical element 53 has a curvature in the XY section and has no curvature in the YZ section.

第2段階の走査光であるレーザー光RA2は、第2ポリゴンミラー52によって第2回転軸AX2を含む面すなわちXZ面に平行な所定面内で放射状に発散するように走査されるとともに、第2光学素子54によって非走査方向に関して第1光学素子53に入射する前のレーザー光RA1の角度に復元される。このため、第2光学素子54は、精度向上も考慮して非球面のトーリックレンズとなっている。第2光学素子54の光軸AXOは、YZ面に平行であるものとし、第2光学素子54は、X軸に平行な断面において曲率を有し、YZ断面において曲率を有するものとなっている。   The laser beam RA2 that is the second-stage scanning beam is scanned by the second polygon mirror 52 so as to diverge radially in a predetermined plane parallel to the plane including the second rotation axis AX2, that is, the XZ plane, The optical element 54 restores the angle of the laser beam RA1 before entering the first optical element 53 in the non-scanning direction. Therefore, the second optical element 54 is an aspheric toric lens in consideration of accuracy improvement. The optical axis AXO of the second optical element 54 is assumed to be parallel to the YZ plane, and the second optical element 54 has a curvature in a cross section parallel to the X axis, and has a curvature in the YZ cross section. .

以上のように、第1ポリゴンミラー51によって、レーザー光RA2の元になるレーザー光RA1が偏向され、第1及び第2光学素子53,54との協働によってX軸方向すなわち縦方向に関する走査が行われる。また、第2ポリゴンミラー52によって、レーザー光RA2が偏向され、YZ面内方向すなわち横方向に関する走査が行われる。つまり、第1及び第2ポリゴンミラー51,52と第1及び第2光学素子53,54とによってレーザー光RAが縦横に関して2次元的に走査される。   As described above, the first polygon mirror 51 deflects the laser beam RA1 that is the source of the laser beam RA2, and the scanning in the X-axis direction, that is, the vertical direction is performed in cooperation with the first and second optical elements 53 and 54. Done. Further, the laser beam RA2 is deflected by the second polygon mirror 52, and scanning in the YZ in-plane direction, that is, the lateral direction is performed. That is, the first and second polygon mirrors 51 and 52 and the first and second optical elements 53 and 54 scan the laser beam RA two-dimensionally in the vertical and horizontal directions.

図4は、X軸方向に関する走査を概念的に説明する図であり、XY面に平行な所定面を基準として光路が展開されている。同図において、第1ポリゴンミラー51の反射面51aからのレーザー光RA1は、±2θの角度範囲で走査される。このレーザー光RA1は、第1光学素子53を経て一旦光軸AX又はY軸に平行となり、第2ポリゴンミラー52の反射面52aに入射する。つまり、第2ポリゴンミラー52の反射面52aに入射するレーザー光RA1の入射角度は、第2回転軸AX2に平行な所定面に沿ったどの位置でも同じになっている。結果的に、第2ポリゴンミラー52の反射面52aで反射されたレーザー光RA2は、第1ポリゴンミラー51の回転角に関わらず光軸AXに平行なままに維持され、第2光学素子54に入射する。第2光学素子54は、例えばX軸方向に関する焦点距離f2が第1光学素子53のX軸方向に関する焦点距離f1と等しくなっており、第2光学素子54を経たレーザー光RA2は、第2回転軸AX2に平行な別の所定面に沿って進行し、一旦収束するとともに発散し、レーザー光RA1が走査される角度範囲±2θと同じ角度範囲で走査される。つまり、第2光学素子54は、第1光学素子53に入射する前のレーザー光RA1の角度を復元する。より具体的には、第2光学素子54は、第2ポリゴンミラー52の反射面52aで反射されたレーザー光RA2の第2回転軸AX2(図3参照)に平行な別の所定面に沿った最終的な射出角度を、第1ポリゴンミラー51の反射面51aで反射された光線の第2回転軸AX2に平行な所定面(XY面)に沿った元の射出角度に略一致させる。   FIG. 4 is a diagram conceptually illustrating scanning in the X-axis direction, and the optical path is developed with reference to a predetermined plane parallel to the XY plane. In the figure, the laser beam RA1 from the reflecting surface 51a of the first polygon mirror 51 is scanned within an angular range of ± 2θ. The laser beam RA1 passes through the first optical element 53 and is temporarily parallel to the optical axis AX or Y axis and is incident on the reflecting surface 52a of the second polygon mirror 52. That is, the incident angle of the laser beam RA1 incident on the reflecting surface 52a of the second polygon mirror 52 is the same at any position along a predetermined plane parallel to the second rotation axis AX2. As a result, the laser beam RA2 reflected by the reflecting surface 52a of the second polygon mirror 52 is maintained parallel to the optical axis AX regardless of the rotation angle of the first polygon mirror 51, and is applied to the second optical element 54. Incident. In the second optical element 54, for example, the focal length f2 in the X-axis direction is equal to the focal length f1 in the X-axis direction of the first optical element 53, and the laser light RA2 that has passed through the second optical element 54 is rotated second. Proceeding along another predetermined plane parallel to the axis AX2, once converged and diverged, the laser beam RA1 is scanned in the same angular range as the scanned angular range ± 2θ. That is, the second optical element 54 restores the angle of the laser light RA1 before entering the first optical element 53. More specifically, the second optical element 54 extends along another predetermined surface parallel to the second rotation axis AX2 (see FIG. 3) of the laser light RA2 reflected by the reflecting surface 52a of the second polygon mirror 52. The final emission angle is made to substantially coincide with the original emission angle along a predetermined plane (XY plane) parallel to the second rotation axis AX2 of the light beam reflected by the reflection surface 51a of the first polygon mirror 51.

第1光学素子53は、シリンドリカルレンズであり、図3に示す断面(XY断面)を光軸AXに垂直なZ方向に移動させた軌跡として3次元の外形を有する。第2光学素子54の第1面及び第2面のX軸方向を含む光軸上の断面は、第1光学素子53の第1面及び第2面のX軸方向を含む断面と同じとしている。ただし、第2光学素子54は、トーリックレンズであり、第1光学素子53と同様の断面を光軸AXO上に設定された或る基準点を通るとともにX軸に平行な回転軸(不図示)のまわりに回転させた軌跡として3次元の外形を有する。   The first optical element 53 is a cylindrical lens, and has a three-dimensional outer shape as a locus obtained by moving the cross section (XY cross section) shown in FIG. 3 in the Z direction perpendicular to the optical axis AX. The cross section on the optical axis including the X-axis direction of the first surface and the second surface of the second optical element 54 is the same as the cross section including the X-axis direction of the first surface and the second surface of the first optical element 53. . However, the second optical element 54 is a toric lens, and passes through a certain reference point set on the optical axis AXO through the same cross section as the first optical element 53, and is a rotation axis (not shown) parallel to the X axis. Has a three-dimensional outer shape as a trajectory rotated around.

以上の説明では、第2光学素子54のX軸方向に関する焦点距離f2が第1光学素子53のX軸方向に関する焦点距離f1に等しいとしたが、焦点距離f2が焦点距離f1と異なるものとすることもできる。この場合、レーザー光RA2が走査される角度範囲は、レーザー光RA1が走査される角度範囲±2θと異なるが、係数を掛けた比例的な関係を有するものとなる。つまり、この場合も第2光学素子54は、第1光学素子53に入射する前のレーザー光RA1の角度を比例的に復元する。さらに、第2光学素子54のX軸方向に関する焦点距離f2は、正に限らず負とすることができ、この場合もレーザー光RA2をX方向に発散するように走査することができる。   In the above description, the focal length f2 in the X-axis direction of the second optical element 54 is equal to the focal length f1 in the X-axis direction of the first optical element 53, but the focal length f2 is different from the focal length f1. You can also. In this case, the angle range in which the laser beam RA2 is scanned is different from the angle range ± 2θ in which the laser beam RA1 is scanned, but has a proportional relationship multiplied by a coefficient. That is, also in this case, the second optical element 54 proportionally restores the angle of the laser light RA1 before entering the first optical element 53. Furthermore, the focal length f2 in the X-axis direction of the second optical element 54 can be negative as well as positive, and also in this case, the laser beam RA2 can be scanned so as to diverge in the X direction.

図5(A)は、図3の光学部21によるレーザー光RAの走査パターンを射出装置100側から見た一例を説明する図である。レーザー光RAは、対象領域AR内において第1ポリゴンミラー51によってX軸方向に対応する角度Θを周期的に所定量(単位走査角度)だけ変化させつつ、第2ポリゴンミラー52によってYZ面内の特定方向に対応する角度Φを周期的に所定量(単位走査角度)だけ変化させた角度方向に離散的に照射される。なお、図示の例では、第1ポリゴンミラー51による単位走査角度と第2ポリゴンミラー52による単位走査角度とが略等しいものとなっているが、第1ポリゴンミラー51による単位走査角度と第2ポリゴンミラー52による単位走査角度とのいずれか一方を相対的に小さくすることもできる。
図5(B)は、射出装置100によるレーザー光RA(L1)の走査パターンを受光装置200側から観測する状況を説明する図である。射出装置100から射出されるレーザー光L1によって、天空の立体空間であるレーザー照射領域VAでは、漏れのないレーザー走査が行われる。この結果、受光装置200では、視野を固定したままで画像を取り込むだけで、射出装置100からのレーザー光L1によって照明されたレーザー照射領域VAからの散乱光として検出光L2を得る。ここで、レーザー照射領域VAの正面(受光装置200の光軸に垂直な仮想的面)SP及びこれに平行な奥の面からの検出光L2は、2次元分布のパターンP1として検出され、奥行き方向に配列されたパターンP2は同一視線上でパルス状に変化するものとして経時的に検出される。なお、射出装置100からのレーザー光L1は、図2に示すレーザー発生装置11に設けたビームエキスパンダーの調整によって所望の程度に小さな広がりを有するものとでき、パターンP1のドット(検出単位)を受光装置200の解像度と同程度或いはそれ以下とできる。また、レーザー照射領域VAの正面SP等におけるレーザー光L1の走査は、図3のX軸やY軸の方向を調整することで、図5(A)に示す走査パターンの主走査方向の傾きを任意に調整でき、主走査方向を例えば水平方向や鉛直方向とすることができる。つまり、レーザー光L1の主走査は、図5(B)のX'方向やY'方向に一致させることができ、この場合、正面SP及びこれに平行な奥の面の縦走査線又は横走査線からの散乱光を格子状点として検出しやすくなる。レーザー光L1の射出に関する2軸の走査面の選び方は、受光装置200の受光面における画素の受光効率が最大になるように予め幾何学的に決めることになる。
FIG. 5A is a diagram for explaining an example of the scanning pattern of the laser light RA by the optical unit 21 of FIG. The laser beam RA is changed in the YZ plane by the second polygon mirror 52 while the angle Θ corresponding to the X-axis direction is periodically changed by a predetermined amount (unit scanning angle) by the first polygon mirror 51 in the target area AR. Irradiation is performed discretely in an angle direction in which an angle Φ corresponding to a specific direction is periodically changed by a predetermined amount (unit scanning angle). In the illustrated example, the unit scanning angle by the first polygon mirror 51 and the unit scanning angle by the second polygon mirror 52 are substantially equal. However, the unit scanning angle by the first polygon mirror 51 and the second polygon mirror 51 are the same. Either one of the unit scanning angles by the mirror 52 can be made relatively small.
FIG. 5B is a diagram for explaining a situation where the scanning pattern of the laser beam RA (L1) by the emission device 100 is observed from the light receiving device 200 side. The laser beam L1 emitted from the injection apparatus 100 performs laser scanning without leakage in the laser irradiation area VA that is a three-dimensional space in the sky. As a result, in the light receiving device 200, the detection light L2 is obtained as scattered light from the laser irradiation area VA illuminated by the laser light L1 from the emission device 100 only by capturing an image with the field of view fixed. Here, the front surface (virtual surface perpendicular to the optical axis of the light receiving device 200) SP of the laser irradiation area VA and the detection light L2 from the back surface parallel to this are detected as a two-dimensional distribution pattern P1, and the depth The pattern P2 arranged in the direction is detected over time as changing in a pulse shape on the same line of sight. Note that the laser light L1 from the emission device 100 can have a small extent as desired by adjusting the beam expander provided in the laser generator 11 shown in FIG. 2, and receives the dots (detection units) of the pattern P1. It can be as low as or less than the resolution of the device 200. Further, the scanning of the laser beam L1 on the front surface SP of the laser irradiation area VA can be performed by adjusting the X-axis and Y-axis directions of FIG. 3 so that the inclination of the scanning pattern shown in FIG. The main scanning direction can be set to, for example, a horizontal direction or a vertical direction. In other words, the main scanning of the laser beam L1 can be made to coincide with the X ′ direction and the Y ′ direction in FIG. It becomes easy to detect scattered light from the line as a lattice point. The method of selecting the biaxial scanning plane for the emission of the laser light L1 is geometrically determined in advance so that the light receiving efficiency of the pixels on the light receiving surface of the light receiving device 200 is maximized.

図2に戻って、第1ポリゴンミラー51に付随して設けられた第1センサー57は、光源と光検出素子とを一体化したユニットであり、反射面51aに検査光を入射させて反射させた反射光を検出することによって、第1ポリゴンミラー51の回転姿勢に関する情報を検出することができ、第1ポリゴンミラー51の回転速度や回転の起点を検出するために利用される。第2ポリゴンミラー52に付随して設けられた第2センサー58も、第1センサー57と同様の構造を有し、反射面52aに検査光を入射させて反射させた反射光を検出することによって、第2ポリゴンミラー52の回転姿勢に関する情報を検出することができ、第2ポリゴンミラー52の回転速度や回転の起点を検出するために利用される。第1及び第2センサー57,58の検出出力は、後述する第1及び第2モーター駆動ユニット23,24を介してミラー回転制御部25や主制御部101に送信される。   Returning to FIG. 2, the first sensor 57 provided in association with the first polygon mirror 51 is a unit in which the light source and the light detection element are integrated, and the inspection light is incident on the reflection surface 51a to be reflected. By detecting the reflected light, it is possible to detect information related to the rotation posture of the first polygon mirror 51, and it is used to detect the rotation speed and the starting point of the rotation of the first polygon mirror 51. The second sensor 58 provided along with the second polygon mirror 52 also has the same structure as the first sensor 57, and detects the reflected light that is reflected by making the inspection light incident on the reflecting surface 52a. The information about the rotation posture of the second polygon mirror 52 can be detected, and is used to detect the rotation speed and the starting point of the rotation of the second polygon mirror 52. Detection outputs of the first and second sensors 57 and 58 are transmitted to the mirror rotation control unit 25 and the main control unit 101 via first and second motor drive units 23 and 24 described later.

第1モーター駆動ユニット23は、ミラー回転制御部25の制御下で動作し、第1駆動部55に組み込まれたモーターに駆動電圧を供給することによってモーターを一定速度で回転させる。第1駆動部55には、モーターに付随してエンコーダが組み込まれており、第1駆動部55に駆動された第1ポリゴンミラー51の回転角度を示すエンコーダ信号をミラー回転制御部25に出力する。   The first motor drive unit 23 operates under the control of the mirror rotation control unit 25, and rotates the motor at a constant speed by supplying a drive voltage to the motor incorporated in the first drive unit 55. The first drive unit 55 incorporates an encoder in association with the motor, and outputs an encoder signal indicating the rotation angle of the first polygon mirror 51 driven by the first drive unit 55 to the mirror rotation control unit 25. .

第2モーター駆動ユニット24は、ミラー回転制御部25の制御下で動作し、第2駆動部56に組み込まれたモーターに駆動電圧を供給することによってモーターを一定速度で回転させる。第2駆動部56には、モーターに付随してエンコーダが組み込まれており、第2駆動部56に駆動された第2ポリゴンミラー52の回転角度を示すエンコーダ信号をミラー回転制御部25に出力する。   The second motor drive unit 24 operates under the control of the mirror rotation control unit 25 and rotates the motor at a constant speed by supplying a drive voltage to the motor incorporated in the second drive unit 56. The second drive unit 56 incorporates an encoder in association with the motor, and outputs an encoder signal indicating the rotation angle of the second polygon mirror 52 driven by the second drive unit 56 to the mirror rotation control unit 25. .

ミラー回転制御部25は、DSP等の信号処理回路を組み込んだものであり、第1及び第2モーター駆動ユニット23,24からのエンコーダ信号に処理を施してフィードバックに利用している。つまり、ミラー回転制御部25は、第1及び第2ポリゴンミラー51,52の回転状態を直接的に監視して回転角度を一定に保っている。   The mirror rotation control unit 25 incorporates a signal processing circuit such as a DSP, processes the encoder signals from the first and second motor drive units 23 and 24, and uses them for feedback. That is, the mirror rotation control unit 25 directly monitors the rotation state of the first and second polygon mirrors 51 and 52 to keep the rotation angle constant.

パルス発生装置27は、主制御部101の制御下で走査装置本体20を動作させるための基準パルスを発生する。パルス発生装置27からの基準パルスは、ミラー回転制御部25の動作に利用される。   The pulse generator 27 generates a reference pulse for operating the scanning device main body 20 under the control of the main control unit 101. The reference pulse from the pulse generator 27 is used for the operation of the mirror rotation control unit 25.

主制御部101は、コンピューター等からなる装置であり、パルス発生装置27やミラー回転制御部25を適宜動作させるとともに、第1及び第2モーター駆動ユニット23,24を介して第1及び第2ポリゴンミラー51,52の回転角度を示すエンコーダ信号を受け取る。主制御部101は、第1及び第2ポリゴンミラー51,52の回転角度に同期させて、光源装置10の発振駆動装置12にレーザーパルス発生用のトリガー信号を出力する。つまり、主制御部101は、第1及び第2ポリゴンミラー51,52の回転角度に同期させて光源装置10を動作させることにより、レーザー光RAの2次元的な走査とパルス発生のタイミングとを制御する。なお、主制御部101は、外部のネットワークNWとの間で通信を可能にする通信部30を備える。
主制御部101は、GPS等を利用して射出装置100の位置座標を取得することができ、この位置情報を通信部30を介して受光装置200に送信することができる。
The main control unit 101 is a device composed of a computer or the like. The main control unit 101 operates the pulse generator 27 and the mirror rotation control unit 25 as appropriate, and the first and second polygons via the first and second motor drive units 23 and 24. Encoder signals indicating the rotation angles of the mirrors 51 and 52 are received. The main control unit 101 outputs a trigger signal for generating a laser pulse to the oscillation driving device 12 of the light source device 10 in synchronization with the rotation angles of the first and second polygon mirrors 51 and 52. That is, the main control unit 101 operates the light source device 10 in synchronization with the rotation angles of the first and second polygon mirrors 51 and 52 to thereby perform two-dimensional scanning of the laser light RA and pulse generation timing. Control. The main control unit 101 includes a communication unit 30 that enables communication with an external network NW.
The main control unit 101 can acquire the position coordinates of the emission device 100 using GPS or the like, and can transmit this position information to the light receiving device 200 via the communication unit 30.

以下、図6等を参照して、図2の射出装置100と対にして使用される受光装置200について説明する。受光装置200は、例えばシュミットカメラ型の観測装置であり、比較的広角の無限遠結像系である撮像光学部60と、撮像光学部60によって取得した短パルスの微弱光を増幅する光増幅部70と、光増幅部70によって得た画像を高速で検出する検出部80と、受光装置200を構成する各部の動作を統括的に制御する走査制御部であり撮像制御部である主制御部201とを備える。ここで、撮像光学部60と光増幅部70と検出部80とは、射出装置100からのレーザー光によって照明された対象物OBからの非後方型の散乱光を広い画角で一括して検出する撮像装置として機能し、検出部80と主制御部201とは、かかる撮像装置を動作させるための撮像駆動部として機能している。   Hereinafter, the light receiving device 200 used as a pair with the emission device 100 of FIG. 2 will be described with reference to FIG. 6 and the like. The light receiving device 200 is, for example, a Schmitt camera type observation device, and includes an imaging optical unit 60 that is a relatively wide-angle infinity imaging system, and an optical amplification unit that amplifies short pulse weak light acquired by the imaging optical unit 60. 70, a detection unit 80 that detects an image obtained by the optical amplification unit 70 at high speed, and a main control unit 201 that is a scanning control unit and an imaging control unit that comprehensively controls the operation of each unit constituting the light receiving device 200. With. Here, the imaging optical unit 60, the optical amplification unit 70, and the detection unit 80 collectively detect non-rear scattered light from the object OB illuminated by the laser light from the emission device 100 with a wide angle of view. The detection unit 80 and the main control unit 201 function as an imaging drive unit for operating the imaging device.

受光装置200のうち撮像光学部60は、結像ミラー61と、補正板62と、架台装置63とを備える。撮像光学部60において、結像ミラー61は、結像用の反射鏡として、球面、放物面その他の非球面等である反射面61aを有し、対象からの光線DL、すなわち図1に示す受光装置200に入射する検出光L2を集光して像形成位置IS上に観察対象像を形成する。補正板62は、薄いレンズであり、光入射面及び光射出面の少なくとも一方は、非球面等となっており、結像ミラー61に入射する光線DLの光路を補正する。補正板62は、図示のように1枚構成のものに限らず、複数枚の構成とできる。   The imaging optical unit 60 of the light receiving device 200 includes an imaging mirror 61, a correction plate 62, and a gantry device 63. In the imaging optical unit 60, the imaging mirror 61 has a reflecting surface 61a, which is a spherical surface, a paraboloid, or other aspherical surface, as a reflecting mirror for imaging. The detection light L2 incident on the light receiving device 200 is condensed to form an observation target image on the image forming position IS. The correction plate 62 is a thin lens, and at least one of the light incident surface and the light exit surface is an aspheric surface or the like, and corrects the optical path of the light beam DL incident on the imaging mirror 61. The correction plate 62 is not limited to one having a single configuration as shown in the figure, and may have a plurality of configurations.

図7に詳細に示すように、光増幅部70は、像伝達部70aと、イメージインテンシファイアー70bとによって構成される。前者の像伝達部70aは、2次元的に広がる像形成位置IS上に形成された像をイメージインテンシファイアー70bの光学窓に導く役割を有するとともに、後述する光学フィルター74によって対象物からの光線DLを特定の波長域の計測光に制限することができる。   As shown in detail in FIG. 7, the optical amplification unit 70 includes an image transmission unit 70a and an image intensifier 70b. The former image transmission unit 70a has a role of guiding an image formed on the image forming position IS spreading two-dimensionally to an optical window of the image intensifier 70b, and a light beam from the object by an optical filter 74 described later. DL can be limited to measurement light in a specific wavelength range.

像伝達部70aは、光透過基板71と、レンズアレイ72と、光ガイドアレイ73と、光学フィルター74とを備える。像伝達部70aを構成する光透過基板71、レンズアレイ72、光ガイドアレイ73等の部分は、光軸OAに垂直な面に沿って配置される枠状の支持体75a,75bに支持されて一体的に固定されている。ここで、支持体75bは、後述する入力部76の一部でもある。   The image transmission unit 70 a includes a light transmission substrate 71, a lens array 72, a light guide array 73, and an optical filter 74. Portions of the light transmitting substrate 71, the lens array 72, the light guide array 73, and the like constituting the image transmitting unit 70a are supported by frame-like supports 75a and 75b arranged along a plane perpendicular to the optical axis OA. It is fixed integrally. Here, the support body 75b is also a part of the input unit 76 described later.

像伝達部70aのうち光透過基板71は、湾曲した薄い球殻状の部材である。光透過基板71の外側は、凸の球面であり、像形成位置ISに対応する入射面71aとなっている。光透過基板71の内側は、レンズアレイ72を球殻状又はドーム状に配列した状態で支持している。レンズアレイ72を構成するレンズ要素72eは、これを通過する光線の射出角を入射角よりも減少させる役割を有し、射出NAを入射NAよりも減少させ平行光に近づけることで、開口数を減少させる開口数変換を行う。これにより、次段の光学フィルター74に入射させる光線光の入射角を小さくすることができる。光ガイドアレイ73は、レンズアレイ72に対向して配置され、多数の細長い光ガイド要素73eを束ねた構造を有する。これらの光ガイド要素73eは、レンズアレイ72を構成する多数のレンズ要素72eに対応して1対1で配置されている。光ガイドアレイ73の射出面73bは、イメージインテンシファイアー70bの入力部76に対向しており、全体として凹の球状面を形成している。
なお、レンズアレイ72のレンズ要素72eと、光ガイドアレイ73の光ガイド要素73eとの対については、予め計画されて射出されるレーザー光の光線の方向に整合するように整列させ、より光の収集効率を上げるように配置することが可能である。その場合、射出されたレーザー光に対する感度が全体として最大となるように最適な位置に受光装置200の向きとともに整列させることで収集効率の向上が比較的容易に実現される。
The light transmission substrate 71 in the image transmission unit 70a is a curved thin spherical shell member. The outside of the light transmitting substrate 71 is a convex spherical surface, which is an incident surface 71a corresponding to the image forming position IS. The inner side of the light transmitting substrate 71 supports the lens array 72 in a state of being arranged in a spherical shell shape or a dome shape. The lens element 72e constituting the lens array 72 has a role of reducing the exit angle of the light beam passing through the lens array 72 from the incident angle, and reduces the exit NA smaller than the incident NA so as to be close to parallel light. Perform numerical aperture conversion to decrease. Thereby, the incident angle of the light beam incident on the optical filter 74 at the next stage can be reduced. The light guide array 73 is disposed to face the lens array 72 and has a structure in which a large number of elongated light guide elements 73e are bundled. These light guide elements 73e are arranged on a one-to-one basis corresponding to the large number of lens elements 72e constituting the lens array 72. The exit surface 73b of the light guide array 73 faces the input portion 76 of the image intensifier 70b, and forms a concave spherical surface as a whole.
The pair of the lens element 72e of the lens array 72 and the light guide element 73e of the light guide array 73 is aligned so as to be aligned with the direction of the light beam of the laser light that is planned and emitted in advance. It can be arranged to increase the collection efficiency. In this case, the collection efficiency can be improved relatively easily by aligning the light receiving device 200 with the optimal position so that the sensitivity to the emitted laser light is maximized as a whole.

光学フィルター74は、レンズアレイ72と光ガイドアレイ73との間に形成された薄い空隙GAに挿入されるように配置されている。光学フィルター74は、所定波長の光を選択的に透過させるものであり、例えば特定の紫外光や赤外光を狭帯域で通過させるバンドパスフィルターである。光学フィルター74は、例えば波長特性が異なる3つの領域に区画されており、自転等によって3つの領域のレンズアレイ72に対する配置を変更することができる。これにより、異なる波長帯域の像を多少の時間差をもって並列的に検出することができる。なお、光学フィルター74は、別タイプの光学フィルターに交換することもできる。   The optical filter 74 is disposed so as to be inserted into a thin gap GA formed between the lens array 72 and the light guide array 73. The optical filter 74 selectively transmits light having a predetermined wavelength. For example, the optical filter 74 is a band-pass filter that allows specific ultraviolet light or infrared light to pass in a narrow band. The optical filter 74 is divided into, for example, three regions having different wavelength characteristics, and the arrangement of the three regions with respect to the lens array 72 can be changed by rotation or the like. Thereby, images in different wavelength bands can be detected in parallel with a slight time difference. The optical filter 74 can be replaced with another type of optical filter.

光増幅部70のうち後者のイメージインテンシファイアー70bは、結像ミラー61によって結像され像伝達部70aによって伝達された微弱な画像を増幅する。イメージインテンシファイアー70bは、結像光を光電変換するための入力部76と、光電変換後の電子を収束させる静電収束系77と、収束状態で入射した電子を光に変換して像を形成する出力部78とを有する。ここで、入力部76と静電収束系77とは、散乱光を検出するための光電撮像管となっている。イメージインテンシファイアー70bの入力部76は、金属製の容器本体79の開放側の一端に固定されている。入力部76は、例えば外側が平面で内側が凹曲面であるファイバーオプティックプレートである光学窓76aを有しており、光学窓76aの内側には所定の特性を有する光電変換物質の蒸着によって光電変換面76cが形成されている。静電収束系77は、容器本体79の側壁内面に支持されている。静電収束系77は、複数の電子収束用の電極部分77a〜77dを有している。出力部78は、容器本体79の底部に固定されている。出力部78は、例えばファイバーオプティックプレート78aで形成され、入射面78bには、所定の特性を有する蛍光体が塗布されている。ファイバーオプティックプレート78aの入射面78bは、静電収束系77の結像面の位置に配置されており、静電収束系77の結像面と一致するような面形状を有している。このファイバーオプティックプレート78aの前段にマイクロチャネルプレート(MCP)を配置することもできる。この場合、MCPによって入射電子を増倍し、ファイバーオプティックプレート78aによって増倍された電子に対応する蛍光像が形成される。
なお、出力面を蛍光面が付着したファイバーオプティックプレートの代わりに半導体画素検出器を配置して直接電子の入射を検出し、画素ごとの電流出力信号を読み出す方式もある。その場合、後述するリレー光学系81やトリガーセンサー(粗像検出部83等)は省略され、トリガー判定回路と読み出し用のセンサーとが一体となった構成となる。
The latter image intensifier 70b in the optical amplifying unit 70 amplifies a weak image formed by the imaging mirror 61 and transmitted by the image transmission unit 70a. The image intensifier 70b includes an input unit 76 for photoelectrically converting the imaging light, an electrostatic convergence system 77 for converging the electrons after the photoelectric conversion, and an image obtained by converting the incident electrons in the converged state into light. And an output portion 78 to be formed. Here, the input unit 76 and the electrostatic focusing system 77 are photoelectric imaging tubes for detecting scattered light. The input unit 76 of the image intensifier 70b is fixed to one end on the open side of the metal container body 79. The input unit 76 includes, for example, an optical window 76a that is a fiber optic plate having a flat surface on the outside and a concave curved surface on the inside, and photoelectric conversion is performed on the inside of the optical window 76a by vapor deposition of a photoelectric conversion material having predetermined characteristics. A surface 76c is formed. The electrostatic focusing system 77 is supported on the inner surface of the side wall of the container main body 79. The electrostatic focusing system 77 has a plurality of electrode portions 77a to 77d for electron focusing. The output unit 78 is fixed to the bottom of the container body 79. The output unit 78 is formed of, for example, a fiber optic plate 78a, and a phosphor having a predetermined characteristic is applied to the incident surface 78b. The incident surface 78 b of the fiber optic plate 78 a is disposed at the position of the imaging surface of the electrostatic focusing system 77 and has a surface shape that matches the imaging surface of the electrostatic focusing system 77. A microchannel plate (MCP) may be disposed in front of the fiber optic plate 78a. In this case, incident electrons are multiplied by the MCP, and a fluorescent image corresponding to the electrons multiplied by the fiber optic plate 78a is formed.
There is also a system in which a semiconductor pixel detector is arranged instead of the fiber optic plate with the phosphor screen attached to the output surface to directly detect the incidence of electrons and read out the current output signal for each pixel. In that case, a relay optical system 81 and a trigger sensor (coarse image detection unit 83 and the like), which will be described later, are omitted, and the trigger determination circuit and the readout sensor are integrated.

検出部80は、光増幅部70のイメージインテンシファイアー70bによって増幅された画像を電気的な信号として検出する。検出部80は、リレー光学系81と、精細像検出部82と、粗像検出部83と、駆動回路84とを備える。リレー光学系81は、光軸OAに沿った光路上流側に配置されるディストリビューター81aと、ディストリビューター81aよりも光路下流側に配置される本体光学系81bと、ディストリビューター81aによって分岐されたトリガー光を検出する分岐光路部81cとを備える。リレー光学系81のうちディストリビューター81aは、ビームスプリッターである。   The detection unit 80 detects the image amplified by the image intensifier 70b of the light amplification unit 70 as an electrical signal. The detection unit 80 includes a relay optical system 81, a fine image detection unit 82, a coarse image detection unit 83, and a drive circuit 84. The relay optical system 81 includes a distributor 81a disposed on the upstream side of the optical path along the optical axis OA, a main body optical system 81b disposed on the downstream side of the optical path from the distributor 81a, and a trigger branched by the distributor 81a. And a branching optical path part 81c for detecting light. Of the relay optical system 81, the distributor 81a is a beam splitter.

図8に示すように、検出部80のリレー光学系81は、イメージインテンシファイアー70bに設けた出力部78の出力面78cの像を、精細像検出部82の撮像面82i上に略等倍で投射する。リレー光学系81は、出力部78の出力面78c側すなわち物体側でテレセントリックであり、精細像検出部82の撮像面82i側すなわち像側で非テレセントリック又はテレセントリックである。   As shown in FIG. 8, the relay optical system 81 of the detection unit 80 has an image of the output surface 78 c of the output unit 78 provided in the image intensifier 70 b approximately on the imaging surface 82 i of the fine image detection unit 82. Project with. The relay optical system 81 is telecentric on the output surface 78c side of the output unit 78, that is, on the object side, and is non-telecentric or telecentric on the imaging surface 82i side of the fine image detecting unit 82, that is, on the image side.

ディストリビューター81aは、一種のハーフミラーであるビームスプリットミラーSMを内蔵するプリズムである。ディストリビューター81aは、イメージインテンシファイアー70bの出力面78cにおける蛍光像を所定強度の2つの蛍光像すなわち第1及び第2蛍光像に分配する。ディストリビューター81aのビームスプリットミラーSMを透過して直進する第1蛍光像の光束は、第1光路OP1に導かれ、本体光学系81bを通過して固体撮像素子82aの撮像面82iに入射する。ディストリビューター81aのビームスプリットミラーSMで反射されて折り曲げられた第2蛍光像の光束は、第2光路OP2に導かれ、光電撮像管からなる粗像検出部83の撮像面83iに入射する。ディストリビューター81aは、ビームスプリットミラーSMを透過する光の強度と、透過されずに反射される光の強度とが、所定の比率(α(透過率)/β(反射率))となるように設定されている。具体的には、ディストリビューター81a自身の吸収による透過率の低下を考慮しない場合、例えば透過率α=70%、反射率β=30%に設定されている。α/βの比ついては、任意に設定することができるが、精細像検出部82の撮像面82iに入射する第1蛍光像の光束の光量を多くする観点で、1よりも大きくすることが一般に望ましい。   The distributor 81a is a prism having a built-in beam split mirror SM which is a kind of half mirror. The distributor 81a distributes the fluorescent image on the output surface 78c of the image intensifier 70b into two fluorescent images having a predetermined intensity, that is, a first fluorescent image and a second fluorescent image. The light beam of the first fluorescent image that travels straight through the beam split mirror SM of the distributor 81a is guided to the first optical path OP1, passes through the main body optical system 81b, and is incident on the imaging surface 82i of the solid-state imaging device 82a. The light beam of the second fluorescent image reflected and bent by the beam split mirror SM of the distributor 81a is guided to the second optical path OP2 and is incident on the imaging surface 83i of the coarse image detector 83 made of a photoelectric imaging tube. The distributor 81a has a predetermined ratio (α (transmittance) / β (reflectance)) between the intensity of light transmitted through the beam split mirror SM and the intensity of light reflected without being transmitted. Is set. Specifically, when the reduction in transmittance due to the absorption of the distributor 81a itself is not considered, for example, the transmittance α = 70% and the reflectance β = 30% are set. The α / β ratio can be arbitrarily set, but is generally larger than 1 from the viewpoint of increasing the amount of light of the first fluorescent image incident on the imaging surface 82i of the fine image detector 82. desirable.

なお、本体光学系81bは、複数のレンズで構成される投射レンズであり、リレー光学系81の投射機能を担っている。   The main body optical system 81 b is a projection lens composed of a plurality of lenses, and bears the projection function of the relay optical system 81.

分岐光路部81cは、イメージインテンシファイアー70bの出力面78cの像を、粗像検出部83の撮像面83i上に略等倍で投射する。分岐光路部81cは、明るさを最も重視しており、物体側にも像側にも非テレセントリックである。なお、ディストリビューター81aは、分岐光路部81cの一部にもなっている。   The branching optical path unit 81 c projects the image of the output surface 78 c of the image intensifier 70 b on the imaging surface 83 i of the coarse image detection unit 83 at approximately the same magnification. The branching optical path portion 81c places the highest importance on brightness, and is non-telecentric on both the object side and the image side. The distributor 81a is also a part of the branch optical path portion 81c.

精細像検出部82は、例えばCMOS型撮像素子である固体撮像素子82aと、固体撮像素子82aに撮像動作を行わせる駆動回路82bとを有し、駆動回路84の位置/タイミング制御回路84bから出力されるタイミング信号に基づいて固体撮像素子82aに撮像動作を行わせることができる。固体撮像素子82aは、撮像面82iを有しており、撮像面82iを格子状に分割するように、y方向にm(例えば12)行で、x方向にn(例えば12)列で、全体としてm行×n列=A(例えば144)チャンネルの局所領域AR1を有する。各局所領域AR1は、単独でCMOS型撮像素子として機能し、2次元的な画像検出がそれぞれ可能になっている。各局所領域AR1は、個別の異なるタイミングで撮像動作を行うことができ、上記位置/タイミング制御回路84bから出力される個別のタイミング信号に基づいて独立して撮像動作を行う。つまり、出力部78の出力面78cは、本体光学系81bを介して固体撮像素子82aの撮像面82iの共役位置に配置されており、撮像面82iを構成する局所領域AR1によって、仮想的にm行×n列=Aチャンネルに区分して個別に観察可能になっている。   The fine image detection unit 82 includes, for example, a solid-state image sensor 82a that is a CMOS image sensor, and a drive circuit 82b that causes the solid-state image sensor 82a to perform an imaging operation, and is output from the position / timing control circuit 84b of the drive circuit 84. Based on the timing signal, the solid-state image sensor 82a can perform an imaging operation. The solid-state imaging device 82a has an imaging surface 82i. The entire imaging surface 82i is divided into m (for example, 12) rows in the y direction and n (for example, 12) columns in the x direction so as to divide the imaging surface 82i into a grid. As m rows × n columns = A (for example, 144) channel local area AR1. Each local area AR1 functions independently as a CMOS type image sensor, and two-dimensional image detection is possible. Each local area AR1 can perform an imaging operation at different timings, and independently performs an imaging operation based on an individual timing signal output from the position / timing control circuit 84b. That is, the output surface 78c of the output unit 78 is disposed at a conjugate position of the imaging surface 82i of the solid-state imaging device 82a via the main body optical system 81b, and is virtually m by the local region AR1 that constitutes the imaging surface 82i. It is possible to observe by dividing into rows × n columns = A channel.

粗像検出部83は、マルチアノードフォトマルチプライヤを備える光電撮像管であり、その撮像面83iは、y方向にm(例えば12)行で、x方向にn(例えば12)列で、全体としてm行×n列=A(例えば144)チャンネルの区分領域AR2を有する。つまり、粗像検出部83は、Aチャンネルの区分領域AR2に対応してメッシュダイノードを有し、第2蛍光像が所定以上の強度で入力されたダイノードのアノードからのみ、撮像面83i上の第2蛍光像を光電変換して得られた電流が出力される。なお、撮像面83i上に第2蛍光像の光束が入射して電流が出力されるまでに要する時間は、1ナノ秒程度である。粗像検出部83は、各アノードから出力された電流に基づいて、いずれの区分領域AR2に第2蛍光像の光束が入射したかを、その現出タイミングとともに特定できるようになっている。つまり、イメージインテンシファイアー70bの出力面78cは、粗像検出部83の撮像面83iを構成する区分領域AR2によって、仮想的にm行×n列=Aチャンネルに区分されて個別に監視可能になっている。なお、このような区分領域AR2に対応するイメージインテンシファイアー70bの出力面78c上の仮想的な区分領域は、精細像検出部82の局所領域AR1にも対応するものとなっている。ここで、上記出力面78cのうち微弱な事象が現出した区分領域を現出領域と呼ぶものとする。   The coarse image detector 83 is a photoelectric imaging tube including a multi-anode photomultiplier, and its imaging surface 83i has m (for example, 12) rows in the y direction and n (for example, 12) columns in the x direction as a whole. It has a divided area AR2 of m rows × n columns = A (for example, 144) channels. That is, the coarse image detection unit 83 has a mesh dynode corresponding to the segment area AR2 of the A channel, and the second image on the imaging surface 83i is only from the anode of the dynode to which the second fluorescent image is input with a predetermined intensity or more. 2 A current obtained by photoelectric conversion of the fluorescence image is output. Note that the time required for the light beam of the second fluorescent image to enter the imaging surface 83i and output the current is about 1 nanosecond. The coarse image detection unit 83 is able to identify the divided region AR2 on which the luminous flux of the second fluorescent image has entered, together with the appearance timing, based on the current output from each anode. In other words, the output surface 78c of the image intensifier 70b is virtually divided into m rows × n columns = A channel by the divided area AR2 constituting the imaging surface 83i of the coarse image detector 83, and can be individually monitored. It has become. Note that the virtual segmented area on the output surface 78c of the image intensifier 70b corresponding to the segmented area AR2 also corresponds to the local area AR1 of the fine image detecting unit 82. Here, the segmented area in which the weak event appears in the output surface 78c is referred to as the appearing area.

駆動回路84は、粗像検出部83の検出信号に基づいて動作する論理回路部84aと、論理回路部84aの出力に基づいて動作する位置/タイミング制御回路84bとを備える。なお、駆動回路84は、リレー光学系81の分岐光路部81cと協働することにより、トリガー部88として機能する。このトリガー部88は、リレー光学系81のディストリビューター81aで分配された第2蛍光像の光束を監視して、精細像検出部82の固体撮像素子82aによる第1蛍光像の撮影を適切なものとする。   The drive circuit 84 includes a logic circuit unit 84a that operates based on the detection signal of the coarse image detection unit 83, and a position / timing control circuit 84b that operates based on the output of the logic circuit unit 84a. The drive circuit 84 functions as the trigger unit 88 by cooperating with the branch optical path unit 81 c of the relay optical system 81. This trigger unit 88 monitors the light flux of the second fluorescent image distributed by the distributor 81a of the relay optical system 81, and appropriately captures the first fluorescent image by the solid-state image sensor 82a of the fine image detection unit 82. And

論理回路部84aは、例えば波高弁別器を備えており、粗像検出部83の各アノードから出力される電流が所定の閾値を超えたか否か、すなわち微弱な検出光L2又は光線DLの現出タイミングを例えば2値的な情報として検出する。具体的には、論理回路部84aは、粗像検出部83を構成する任意の行のアノードから出力される電流と、任意の列のアノードから出力される電流とをスレショルドしており、粗像検出部83によって検出した第2蛍光像を、x方向(m行)とy方向(n列)とのそれぞれに関する位置情報及びタイミング情報に変換する。つまり、粗像検出部83の特定の区分領域AR2に第2蛍光像の光束が入射した場合、論理回路部84aは、その時間、位置等に関する情報を出力することにより、イメージインテンシファイアー70bによって検出した微弱な検出光L2又は光線DLの入射について、この検出光L2が入射している時間、位置、移動方向等を求めることを可能にする。   The logic circuit unit 84a includes, for example, a wave height discriminator, and whether or not the current output from each anode of the coarse image detection unit 83 exceeds a predetermined threshold value, that is, the appearance of the weak detection light L2 or the light beam DL. The timing is detected as binary information, for example. Specifically, the logic circuit unit 84a thresholds the current output from the anode of an arbitrary row constituting the coarse image detection unit 83 and the current output from the anode of an arbitrary column. The second fluorescent image detected by the detection unit 83 is converted into position information and timing information regarding each of the x direction (m rows) and the y direction (n columns). That is, when the light beam of the second fluorescent image is incident on the specific segmented area AR2 of the coarse image detecting unit 83, the logic circuit unit 84a outputs information on the time, position, and the like, thereby causing the image intensifier 70b to output the information. For the detected weak detection light L2 or light beam DL, the time, position, moving direction, etc. of the detection light L2 can be obtained.

位置/タイミング制御回路84bは、例えばフィルター、遅延回路等を備えており、論理回路部84aから出力された情報、すなわち微弱な検出光L2又は光線DLの入射に関する位置情報及びタイミング情報に基づいて精細像検出部82を動作させる。具体的には、粗像検出部83の区分領域AR2と、精細像検出部82の局所領域AR1との相関がとられており、位置/タイミング制御回路84bは、区分領域AR2のうち第2蛍光像が検出された現出領域に対応する固体撮像素子82aの局所領域AR1等において選択的に同期して第1蛍光像の撮像を行わせるべく、精細像検出部82の駆動回路82bに駆動信号を出力する。つまり、粗像検出部83によって検出された微弱な検出光L2又は光線DLが入射している時間、位置、移動方向等に応じて、精細像検出部82による撮像動作を必要最小限に制限することができるので、イメージインテンシファイアー70bの出力から高速で微弱な事象のみを抽出して高いS/N比で撮像することを可能にする。この際、位置/タイミング制御回路84bは、粗像検出部83の出力に基づいて、固体撮像素子82aによる撮像の露光時間を調整することもできる。   The position / timing control circuit 84b includes, for example, a filter, a delay circuit, and the like, and is fine based on information output from the logic circuit unit 84a, that is, position information and timing information regarding incidence of the weak detection light L2 or light DL. The image detection unit 82 is operated. Specifically, the segment area AR2 of the coarse image detector 83 and the local area AR1 of the fine image detector 82 are correlated, and the position / timing control circuit 84b includes the second fluorescence in the segment area AR2. A drive signal is sent to the drive circuit 82b of the fine image detector 82 so that the first fluorescent image is picked up in selective synchronization in the local region AR1 of the solid-state image sensor 82a corresponding to the appearing region where the image is detected. Is output. In other words, the imaging operation by the fine image detection unit 82 is limited to the minimum necessary according to the time, position, moving direction, etc., when the weak detection light L2 or the light beam DL detected by the coarse image detection unit 83 is incident. Therefore, it is possible to extract only high-speed and weak events from the output of the image intensifier 70b and to capture images with a high S / N ratio. At this time, the position / timing control circuit 84 b can also adjust the exposure time of imaging by the solid-state imaging device 82 a based on the output of the coarse image detection unit 83.

図6に戻って、架台装置63は、架台駆動部63bを内蔵しており、結像ミラー61及び補正板62からなる結像光学系と、光増幅部70と、検出部80とを一体として特定方向に向けることができる。架台装置63は、主制御部201の制御下で動作しており、結像ミラー61の光軸OAの方位角ζ及び仰角ηに関する方向情報を主制御部201に出力する。なお、主制御部201は、外部のネットワークNWとの間で通信を可能にする通信部90を備える。   Returning to FIG. 6, the gantry device 63 includes a gantry driving unit 63 b, and the imaging optical system including the imaging mirror 61 and the correction plate 62, the light amplification unit 70, and the detection unit 80 are integrated. Can be directed in a specific direction. The gantry device 63 operates under the control of the main control unit 201, and outputs direction information regarding the azimuth angle ζ and elevation angle η of the optical axis OA of the imaging mirror 61 to the main control unit 201. The main control unit 201 includes a communication unit 90 that enables communication with an external network NW.

図9は、受光装置200の主制御部201の演算処理部としての構造を概念的に説明するブロック図である。主制御部201は、コンピューター等からなる装置であるが、内蔵するソフトウエアにより、位置計測部4a、方位換算部4b、光路算出部4c、係数空間テーブル4d、係数評価部4e、記憶部4f、演算処理部4q等として機能する。位置計測部4aは、GPS等を利用して受光装置200の位置座標を取得する。方位換算部4bは、架台装置63からの光軸OAの方向情報に基づいて検出画像中の特定画素に対応する視線方向又は指向方向(方位角ζj、仰角ηj)を算出する。光路算出部4cは、方位換算部4bによって得た指向方向から上空大気中の光路を算定する。係数空間テーブル4dは、上空大気の消散係数等の3次元的な分布の初期値や計算結果を保管する。係数評価部4eは、精細像検出部82による検出画像中の特定画素の輝度に基づいて消散係数等の計算値を評価する。演算処理部4qは、処理に必要な各種データを保管する記憶部4fを参照しつつ、精細像検出部82、方位換算部4b、光路算出部4c等からの出力に基づいて既定の演算を行い大気中のエアロゾルの状態を可視化して表示する。   FIG. 9 is a block diagram conceptually illustrating the structure of the main control unit 201 of the light receiving device 200 as the arithmetic processing unit. The main control unit 201 is a device composed of a computer or the like, but with a built-in software, the position measurement unit 4a, the azimuth conversion unit 4b, the optical path calculation unit 4c, the coefficient space table 4d, the coefficient evaluation unit 4e, the storage unit 4f, It functions as the arithmetic processing unit 4q and the like. The position measuring unit 4a acquires the position coordinates of the light receiving device 200 using GPS or the like. The azimuth conversion unit 4b calculates a line-of-sight direction or a directional direction (azimuth angle ζj, elevation angle ηj) corresponding to a specific pixel in the detection image based on the direction information of the optical axis OA from the gantry device 63. The optical path calculation unit 4c calculates the optical path in the air from the directivity obtained by the azimuth conversion unit 4b. The coefficient space table 4d stores initial values and calculation results of a three-dimensional distribution such as the extinction coefficient of the upper atmosphere. The coefficient evaluation unit 4e evaluates a calculated value such as a dissipation coefficient based on the luminance of a specific pixel in the image detected by the fine image detection unit 82. The arithmetic processing unit 4q performs a predetermined calculation based on outputs from the fine image detecting unit 82, the azimuth converting unit 4b, the optical path calculating unit 4c, and the like while referring to the storage unit 4f that stores various data necessary for processing. Visualize and display the state of aerosols in the atmosphere.

以下、図10を参照して、計測システム1000による大気中のエアロゾルの状態監視方法の一例を説明する。
まず、射出装置100によって照明された特定点OBjからの散乱光を受光装置200によって観測した場合を考える。この場合、受信光強度は、射出装置100から特定点OBjまでの経路Rj1での透過率Tj1と、特定点OBjから受光装置200までの経路Rj2での透過率Tj2と、特定点OBjに存在するエアロゾル等の物質による散乱係数SCj(κ)とに依存するものとなっている。ここで、散乱係数SCj(κ)は、散乱角κの関数である。経路Rj1の長さLG1や経路R2の長さLG2は、射出装置100及び受光装置200の位置に関する座標データと、観察されている指向方向の方位角ζj及び仰角ηjとから幾何学的に算出され、散乱角κjも同様に算出される。
大気の散乱係数SCの3次元分布が既知である場合、或いは大気の散乱係数SCの3次元分布を仮定する場合、特定点OBjにおける散乱係数SCjは当然のことながら、その前後の経路Rj1,Rj2の透過率Tj1,Tj2も計算することができる。
ここで、仮に特定の指向方向又は視線方向に限定した状態で、受光装置200から離れるようにレーザー光L1が走査されるものとすると、観察されている指向方向において遠ざかるような一群の時系列的な受信光強度Pが得られる。いずれか1つの特定点OBjの散乱係数SCjが分かっているとすれば、以下の差分e

Figure 0006265365
もしくは、特定点OBjの受信光強度Pobs jと特定点OBjに隣接する次の点OBj+1の受信光強度Pobs j+1とを用いてこれらの比Pobs j+1/Pobs jを計算する場合、同様の差分e
Figure 0006265365
のいずれかを最小とするようにして、特定点OBjの散乱係数SCj(κ)から次の点OBj+1の散乱係数SCj+1を決定することができる。例えば、受光装置200に最も近い点OB1の散乱係数SC1が所定の初期情報として既知であるとすれば、上記特定の指向方向又は視線方向に沿った散乱係数SC1,SC2,SC3,…を順次計算(逆解析)することができる。さらに、特定点OBjと射出装置100と受光装置200とを含む観測断面内で仰角を変えつつ同様の逆解析処理等を行うことで、この観測断面内における散乱係数SCの2次元的な分布を得ることができる。上記所定の初期情報は、例えば地上近傍用の別タイプのエアロゾル計測装置の計測結果を利用することができる。以上の手法と同様に、観測断面を変化させつつ同様の逆解析処理等を行うことで、散乱係数SCの3次元的な分布を決定することもできる。以上において、得られた散乱係数SCに基づいて透過率Tを修正しつつ再計算を行うことで、計測の信頼性を高めることができる。なお、以上の計算では、散乱係数SCの空間分布の初期値を仮定しているが、計算の便宜上は、大気空間を小セルに分割して各セルに散乱係数SCを当てはめることが行われる。散乱係数SCを当てはめる空間の分割数は、計測システム1000の用途や仕様に応じて適宜設定することができる。一般的には、空間の分割数が多いほど計測を精密にでき、空間の分割数が少ないほど収束値を得るまでの時間すなわち処理時間を短くできる。受光装置200による画像取り込みの分解能や射出装置100によるレーザー光の走査密度は、散乱係数SCに関する空間分割数に対応する値よりも高くできる。この場合、レーザー走査の幾何学的な自由度が増える。一方、受光装置200による画像取り込みの分解能は、散乱係数SCに関する空間分割数に対応する値程度とすることもできる。この場合、幾何学的な配置を整合させることができ、低コストで迅速な処理が可能になる。 Hereinafter, an example of a method for monitoring the state of aerosol in the atmosphere by the measurement system 1000 will be described with reference to FIG.
First, consider a case where the light receiving device 200 observes scattered light from a specific point OBj illuminated by the emitting device 100. In this case, the received light intensity exists at the transmittance Tj1 on the path Rj1 from the emitting device 100 to the specific point OBj, the transmittance Tj2 on the path Rj2 from the specific point OBj to the light receiving device 200, and the specific point OBj. It depends on the scattering coefficient SCj (κ) of a substance such as aerosol. Here, the scattering coefficient SCj (κ) is a function of the scattering angle κ. The length LG1 of the path Rj1 and the length LG2 of the path R2 are geometrically calculated from the coordinate data regarding the positions of the emission device 100 and the light receiving device 200, the azimuth angle ζj and the elevation angle ηj in the directional direction being observed. The scattering angle κj is calculated similarly.
When the three-dimensional distribution of the atmospheric scattering coefficient SC is known, or when the three-dimensional distribution of the atmospheric scattering coefficient SC is assumed, the scattering coefficient SCj at the specific point OBj is naturally the paths Rj1 and Rj2 before and after that. The transmittances Tj1 and Tj2 can also be calculated.
Here, assuming that the laser beam L1 is scanned away from the light receiving device 200 in a state limited to a specific directing direction or line-of-sight direction, a group of time-series that move away from the observed directing direction. The received light intensity P can be obtained. If the scattering coefficient SCj of any one specific point OBj is known, the following difference e
Figure 0006265365
Alternatively, using the received light intensity P obs j at the specific point OBj and the received light intensity P obs j + 1 at the next point OBj + 1 adjacent to the specific point OBj, the ratio P obs j + 1 / P obs j A similar difference e
Figure 0006265365
As a result, the scattering coefficient SCj + 1 of the next point OBj + 1 can be determined from the scattering coefficient SCj (κ) of the specific point OBj. For example, if the scattering coefficient SC1 of the point OB1 closest to the light receiving device 200 is known as the predetermined initial information, the scattering coefficients SC1, SC2, SC3,... Along the specific pointing direction or line-of-sight direction are sequentially calculated. (Inverse analysis). Further, by performing the same inverse analysis process while changing the elevation angle in the observation cross section including the specific point OBj, the emission device 100, and the light receiving device 200, the two-dimensional distribution of the scattering coefficient SC in the observation cross section is obtained. Can be obtained. As the predetermined initial information, for example, a measurement result of another type of aerosol measurement device for the vicinity of the ground can be used. Similarly to the above method, the same inverse analysis process or the like is performed while changing the observation cross section, whereby the three-dimensional distribution of the scattering coefficient SC can be determined. In the above, the reliability of measurement can be improved by performing recalculation while correcting the transmittance T based on the obtained scattering coefficient SC. In the above calculation, the initial value of the spatial distribution of the scattering coefficient SC is assumed. However, for convenience of calculation, the atmospheric space is divided into small cells and the scattering coefficient SC is applied to each cell. The number of divisions of the space to which the scattering coefficient SC is applied can be appropriately set according to the use and specification of the measurement system 1000. In general, the larger the number of divisions in space, the more precise the measurement, and the smaller the number of divisions in space, the shorter the time until obtaining a convergence value, that is, the processing time. The resolution of image capturing by the light receiving device 200 and the scanning density of the laser light by the emitting device 100 can be higher than the values corresponding to the number of spatial divisions related to the scattering coefficient SC. In this case, the geometric freedom of laser scanning increases. On the other hand, the resolution of image capture by the light receiving device 200 can be about a value corresponding to the number of spatial divisions related to the scattering coefficient SC. In this case, the geometric arrangement can be matched, and rapid processing can be performed at low cost.

計測システム1000としてエアロゾル等の状態を監視するため、受光装置200の主制御部201は、位置計測部4aとして通信部90を利用して射出装置100からその位置座標等に関する情報を取得する。主制御部201は、射出装置100からのレーザー光L1の走査パターン、走査角度範囲、走査の基準方位等に関する情報も取得する。主制御部201は、方位換算部4b及び光路算出部4cとして、走査されたレーザー光L1の指向方向(方位角ζj、仰角ηj)に基づいて光路を算定し、係数評価部4eとして以上で説明した逆解析によって係数空間テーブル4dを参照しつつ光路に沿った消散係数又は散乱係数を決定し、結果を記憶部4fに保管する。主制御部201は、以上の手法で計算された上空大気の消散係数又はエアロゾル濃度の空間的な分布を3次元的に可視化して表示することができる。計測システム1000による計測を数秒から数分間隔で繰り返すことにより、上空大気の消散係数又はエアロゾル濃度の空間的な分布を略リアルタイムで表示し、その変動を画像的に保管することができる。   In order to monitor the state of the aerosol or the like as the measurement system 1000, the main control unit 201 of the light receiving device 200 acquires information on the position coordinates and the like from the injection device 100 using the communication unit 90 as the position measurement unit 4a. The main control unit 201 also acquires information related to the scanning pattern, scanning angle range, scanning reference azimuth, and the like of the laser light L1 from the emission apparatus 100. The main control unit 201 calculates the optical path based on the directivity direction (azimuth angle ζj and elevation angle ηj) of the scanned laser light L1 as the azimuth conversion unit 4b and the optical path calculation unit 4c, and is described above as the coefficient evaluation unit 4e. The extinction coefficient or scattering coefficient along the optical path is determined by referring to the coefficient space table 4d by the inverse analysis, and the result is stored in the storage unit 4f. The main control unit 201 can visualize and display the spatial distribution of the extinction coefficient of the upper atmosphere or the aerosol concentration calculated by the above method. By repeating measurement by the measurement system 1000 at intervals of several seconds to several minutes, it is possible to display the dissipation coefficient of the upper atmosphere or the spatial distribution of the aerosol concentration in substantially real time, and to store the fluctuation in an image.

以下、具体的な実施例について説明する。エアロゾルの計測用として、射出装置100から射出される照明用のレーザー光L1の波長を355nm、266nm等とし、最大周波数を100kHz(300μJ/パルス)とした。なお、エアロゾルの場合、信号検出用として波長266nmを使用した場合、355nmをバックグラウンド検出用として用いることができる。また、オゾンの計測用として、射出装置100から射出される照明用のレーザー光L1の波長を308nm等とし、最大周波数を100kHz(250μJ/パルス)とした。雲底用として、射出装置100から射出される照明用のレーザー光L1の波長を785nm等とした。照明用のレーザー光L1の照射に際しては、例えばポリゴンミラーによる走査角を80°×80°とし、200×200点/秒で走査を行い、走査精度を5分角とした。受光装置200は、可搬型と固定広域型とを作製した。可搬型の場合、視野角42°であり、精度0.02°で指向方向又は視線方向を検出でき、固定広域型の場合、視野角25.6°であり、精度0.4°で指向方向又は視線方向を検出できる。   Specific examples will be described below. For aerosol measurement, the wavelength of the illumination laser beam L1 emitted from the injection apparatus 100 was set to 355 nm, 266 nm, and the like, and the maximum frequency was set to 100 kHz (300 μJ / pulse). In the case of aerosol, when a wavelength of 266 nm is used for signal detection, 355 nm can be used for background detection. Further, for ozone measurement, the wavelength of the illumination laser beam L1 emitted from the injection apparatus 100 was set to 308 nm or the like, and the maximum frequency was set to 100 kHz (250 μJ / pulse). For the cloud bottom, the wavelength of the laser beam L1 for illumination emitted from the emission device 100 is set to 785 nm or the like. When irradiating the laser beam L1 for illumination, for example, the scanning angle by a polygon mirror was 80 ° × 80 °, scanning was performed at 200 × 200 points / second, and the scanning accuracy was 5 arc minutes. The light receiving device 200 was manufactured as a portable type and a fixed wide type. In the case of the portable type, the viewing angle is 42 °, and the pointing direction or the line-of-sight direction can be detected with an accuracy of 0.02 °. In the case of the fixed wide area type, the viewing angle is 25.6 °, and the pointing direction is with an accuracy of 0.4 °. Alternatively, the line-of-sight direction can be detected.

以上で説明した計測システム1000によれば、パルス状のレーザー光L1によって照明された対象物OBからの非後方型の散乱光を1次元以上の走査で一括して検出するので、広域に亘る対象物OBの状態を一括して検出することができる。この際、撮像駆動部としての駆動回路84及び主制御部201がトリガー部88に同期して精細像検出部82に画像の取り込みを行わせるので、パルス状のレーザー光に応じた対象物OBからの散乱光を選択的に検出して強度情報を得ることができ、画像上の位置から対象物OBの方位情報(例えば、方位角、仰角等)も得ることができる。これにより、例えば大気中のエアロゾルの密度分布その他に関する各種情報を簡易に比較的高い信頼性で得ることができる。これにより、局所的な施設上空の大気状態、隣国からの大気汚染流入、都市域の大気汚染動向等の監視が可能になり、これらの網羅的監視が行える3次元リアルタイム撮像ライダー(3D−RTIL)を実用化することができる。   According to the measurement system 1000 described above, the non-rear scattered light from the object OB illuminated by the pulsed laser beam L1 is detected at a time by one-dimensional scanning or more. The state of the object OB can be detected collectively. At this time, since the drive circuit 84 and the main control unit 201 as the imaging drive unit cause the fine image detection unit 82 to capture an image in synchronization with the trigger unit 88, the object OB corresponding to the pulsed laser beam is used. The intensity information can be obtained by selectively detecting the scattered light, and the azimuth information (for example, azimuth angle, elevation angle, etc.) of the object OB can be obtained from the position on the image. As a result, for example, various types of information relating to the density distribution of aerosols in the atmosphere can be easily obtained with relatively high reliability. This makes it possible to monitor the local air condition over the facility, air pollution inflow from neighboring countries, air pollution trends in urban areas, etc., and 3D real-time imaging lidar (3D-RTIL) that can comprehensively monitor these Can be put into practical use.

以上実施形態に即して本発明を説明したが、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。   Although the present invention has been described based on the above embodiments, the present invention is not limited to the above embodiments, and can be implemented in various modes without departing from the gist thereof. Such modifications are also possible.

上記実施形態では、射出装置100において走査装置本体20がポリゴンミラー51,52からなるが、ポリゴンミラー51,52に代えてガルバノミラーを用いることもでき、光学素子53,54を省略することもできる。さらに、走査装置本体20のよる走査パターンも図5(A)に例示するものに限らず、目的や対象に応じて様々なパターンとできる。   In the above-described embodiment, the scanning device main body 20 includes the polygon mirrors 51 and 52 in the emission device 100. However, a galvanometer mirror can be used instead of the polygon mirrors 51 and 52, and the optical elements 53 and 54 can be omitted. . Furthermore, the scanning pattern by the scanning device main body 20 is not limited to the one illustrated in FIG. 5A, and various patterns can be used according to the purpose and target.

上記実施形態の受光装置200は、例示であり、例えば受光装置200において光増幅部70の像伝達部70aを省略することができる。   The light receiving device 200 of the above embodiment is an exemplification, and for example, in the light receiving device 200, the image transmission unit 70a of the light amplifying unit 70 can be omitted.

上記実施形態では、リレー光学系81に付随するディストリビューター81aをトリガー部88の一部として用いているが、リレー光学系81に付随するディストリビューター81aに代えて別の手法(例えばイメージインテンシファイアー70bに設けたトリガー部)を用いることもできる。   In the above embodiment, the distributor 81a associated with the relay optical system 81 is used as a part of the trigger unit 88. However, instead of the distributor 81a associated with the relay optical system 81, another method (for example, an image intensifier) is used. The trigger part provided in 70b can also be used.

上記実施形態では、イメージインテンシファイアー70bの出力部78にファイバーオプティックプレート78aを設けているが、ファイバーオプティックプレート78aを省略して固体撮像素子82aによって直接的に電子線像を検出することができる。   In the above embodiment, the fiber optic plate 78a is provided at the output section 78 of the image intensifier 70b. However, the fiber optic plate 78a can be omitted and an electron beam image can be directly detected by the solid-state imaging device 82a. .

上記実施形態では、受光装置200において区分領域AR2単位でトリガー信号の検出を行っているが、画素単位でトリガー信号の検出を行うこともできる。   In the above embodiment, the trigger signal is detected in the divided area AR2 in the light receiving device 200, but the trigger signal can also be detected in the pixel unit.

上記実施形態では、大気中のエアロゾル、オゾン等の濃度分布を計測したが、その他の因子による散乱を想定して大気その他の対象の状態を計測することもできる。例えば、航空管制用の雲底計測や乱流監視などを広域かつ高精度でリアルタイム化する応用が考えられる。   In the above embodiment, the concentration distribution of aerosol, ozone, etc. in the atmosphere is measured. However, it is also possible to measure the state of the atmosphere and other objects assuming scattering due to other factors. For example, it is possible to apply real-time realization of cloud bottom measurement and turbulent flow monitoring for air traffic control.

上記実施形態では、計測システム1000が一対の射出装置100と受光装置200とを備えるとしたが、複数対の射出装置100と受光装置200とを例えば格子状又はアレイ状に配列することによって計測システム1000を構成するならば、広域で大気状態等の観測又は計測が可能になる。さらに、射出装置100及び受光装置200からなる多数の対を通信ネットワークで接続することにより、さらに広域の大気状態等を一括してリアルタイムで計測及び記録することができる。これにより、数100m〜数1000kmに亘る様々なレンジでの網羅的監視が実現され得る。   In the above embodiment, the measurement system 1000 includes a pair of the emission device 100 and the light receiving device 200. However, the measurement system is configured by arranging a plurality of pairs of the emission device 100 and the light reception device 200 in, for example, a lattice shape or an array shape. If 1000 is configured, it is possible to observe or measure the atmospheric state in a wide area. Furthermore, by connecting a large number of pairs of the emission device 100 and the light receiving device 200 via a communication network, it is possible to measure and record a wider area of atmospheric conditions and the like in real time. Thereby, exhaustive monitoring in various ranges ranging from several hundred meters to several thousand km can be realized.

4a…位置計測部、 4b…方位換算部、 4c…光路算出部、 4d…係数空間テーブル、 4d…係数空間テーブル、 4e…係数評価部、 4e…係数評価部、 4f…記憶部、 4q…演算処理部、 10…光源装置、 20…走査装置本体、 21…光学部、 23,24…モーター駆動ユニット、 25…ミラー回転制御部、 27…パルス発生装置、 51…ポリゴンミラー、 51…リレー光学系、 51,52…ポリゴンミラー、 53,54…光学素子、 57,58…センサー、 60…撮像光学部、 61…結像ミラー、 63…架台装置、 70…光増幅部、 70a…像伝達部、 70b…イメージインテンシファイアー、 72…レンズアレイ、 73…光ガイドアレイ、 74…光学フィルター、 76c…光電変換面、 77…静電収束系、 78…出力部、 78a…ファイバーオプティックプレート、 80…検出部、 81…リレー光学系、 81a…ディストリビューター、 82…精細像検出部、 82a…固体撮像素子、 83…粗像検出部、 84…駆動回路、 84a…論理回路部、 84b…タイミング制御回路、 88…トリガー部、 100…射出装置、 101…主制御部、 200…受光装置、 201…主制御部、 1000…計測システム、 AX…光軸、 AX1…回転軸、 AX2…回転軸、 L1…レーザー光、 L2…検出光、 OA…光軸、 OB…対象物   4a ... Position measurement unit, 4b ... Direction conversion unit, 4c ... Optical path calculation unit, 4d ... Coefficient space table, 4d ... Coefficient space table, 4e ... Coefficient evaluation unit, 4e ... Coefficient evaluation unit, 4f ... Storage unit, 4q ... Calculation Processing unit 10 ... Light source device 20 ... Scanner main body 21 ... Optical unit 23,24 ... Motor drive unit 25 ... Mirror rotation control unit 27 ... Pulse generator 51 ... Polygon mirror 51 ... Relay optical system 51, 52 ... polygon mirror, 53, 54 ... optical element, 57, 58 ... sensor, 60 ... imaging optical part, 61 ... imaging mirror, 63 ... gantry device, 70 ... light amplification part, 70a ... image transmission part, 70b: Image intensifier 72: Lens array 73: Light guide array 74: Optical filter 76c Photoelectric conversion surface 77 Electrostatic focusing system, 78 ... output unit, 78a ... fiber optic plate, 80 ... detection unit, 81 ... relay optical system, 81a ... distributor, 82 ... fine image detection unit, 82a ... solid-state image sensor, 83 ... rough image detection 84: drive circuit, 84a: logic circuit unit, 84b ... timing control circuit, 88 ... trigger unit, 100 ... injection device, 101 ... main control unit, 200 ... light receiving device, 201 ... main control unit, 1000 ... measurement system AX ... optical axis, AX1 ... rotation axis, AX2 ... rotation axis, L1 ... laser light, L2 ... detection light, OA ... optical axis, OB ... object.

Claims (7)

パルス状のレーザー光を射出するとともに、レーザー光の射出方向を少なくとも1次元以上の走査で変化させる照明部と前記照明部を動作させる照明駆動部とを有する射出装置と
前記照明部によって射出方向が変化するレーザー光によって照明された対象からの非後方型の散乱光を所定以上の画角で一括して検出する撮像装置と前記撮像装置に付随するトリガー部に同期して前記撮像装置に画像の取り込みを行わせる撮像駆動部とを有し、前記射出装置から離れて配置されて前記射出装置から独立した自己トリガー型の動作を行う受光装置と
を備える計測システム。
Thereby emits pulsed laser light, and an injection device comprising a lighting unit for changing at least one dimension or more scanning emission direction of the laser light, and an illumination drive unit for operating the illumination unit,
An imaging device for detecting collectively in a non-backward type given above angle scattered light from a subject is injected direction is illuminated by the laser beam changed by the illumination unit, synchronized with the trigger unit associated with the imaging device An imaging drive unit that causes the imaging device to capture an image , and a light receiving device that is arranged apart from the ejection device and performs a self-triggered operation independent of the ejection device ;
Measuring system.
前記撮像装置に取り込まれた画像信号に基づいて、散乱係数の2次元以上の分布を決定する演算処理部をさらに備える、請求項1に記載の計測システム。   The measurement system according to claim 1, further comprising an arithmetic processing unit that determines a two-dimensional distribution of scattering coefficients based on an image signal captured by the imaging device. 前記演算処理部は、所定の初期情報からの逆解析によって散乱係数の分布を算出する、請求項2に記載の計測システム。   The measurement system according to claim 2, wherein the arithmetic processing unit calculates a distribution of scattering coefficients by inverse analysis from predetermined initial information. 前記照明部は、直交する第1及び第2回転軸のまわりにそれぞれ回転する第1及び第2ポリゴンミラーと、前記第1ポリゴンミラーの光射出側に配置されて前記第2ポリゴンミラーの反射面に入射する光線の角度範囲を減少させる第1光学素子と、前記第2ポリゴンミラーの光射出側に配置されて前記第1光学素子に入射する前の光線の角度を比例的に復元する第2光学素子とを有する光走査部を備える、請求項1から3までのいずれか一項に記載の計測システム。   The illumination unit includes first and second polygon mirrors that rotate around orthogonal first and second rotation axes, respectively, and a reflection surface of the second polygon mirror that is disposed on the light exit side of the first polygon mirror. A first optical element for reducing the angle range of light rays incident on the second optical element, and a second optical element disposed on the light exit side of the second polygon mirror to proportionally restore the angle of the light rays before entering the first optical element. The measurement system according to any one of claims 1 to 3, further comprising an optical scanning unit having an optical element. 前記第1光学素子は、前記第2ポリゴンミラーの反射面に入射する光線の前記第2回転軸に平行な所定面に沿った入射角度を、互いに略一致させ、
前記第2光学素子は、前記第2ポリゴンミラーの反射面で反射された光線の前記第2回転軸に平行な別の所定面に沿った射出角度を、前記第1ポリゴンミラーの反射面で反射された光線の前記第2回転軸に平行な前記所定面に沿った射出角度に略一致させる、請求項4に記載の計測システム。
The first optical element substantially matches the incident angles along a predetermined plane parallel to the second rotation axis of the light incident on the reflecting surface of the second polygon mirror;
The second optical element reflects, on the reflecting surface of the first polygon mirror, an emission angle of a light beam reflected by the reflecting surface of the second polygon mirror along another predetermined surface parallel to the second rotation axis. 5. The measurement system according to claim 4, wherein the measured light beam substantially coincides with an emission angle along the predetermined plane parallel to the second rotation axis.
前記撮像装置は、散乱光を含む像を検出する光電撮像管を有し、
前記トリガー部は、前記光電撮像管に付随して設けられ、前記撮像装置から信号を取り出すタイミングを設定する、請求項1から5までのいずれか一項に記載の計測システム。
The imaging device has a photoelectric imaging tube for detecting an image including scattered light,
The measurement system according to any one of claims 1 to 5, wherein the trigger unit is provided along with the photoelectric imaging tube and sets a timing for extracting a signal from the imaging device.
前記撮像装置は、前記光電撮像管としてのイメージインテンシファイアの出力を検出するCCD型撮像素子及びCMOS型撮像素子のいずれか一方である固体撮像素子を含み、前記トリガー部から出力されるタイミング信号に基づいて前記固体撮像素子を動作させる、請求項6に記載の計測システム。 The imaging device includes a solid-state imaging device that is one of a CCD type imaging device and a CMOS type imaging device that detects an output of an image intensifier as the photoelectric imaging tube , and a timing signal output from the trigger unit The measurement system according to claim 6, wherein the solid-state imaging device is operated based on the above.
JP2013099731A 2013-05-09 2013-05-09 Measuring system Active JP6265365B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013099731A JP6265365B2 (en) 2013-05-09 2013-05-09 Measuring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013099731A JP6265365B2 (en) 2013-05-09 2013-05-09 Measuring system

Publications (2)

Publication Number Publication Date
JP2014219330A JP2014219330A (en) 2014-11-20
JP6265365B2 true JP6265365B2 (en) 2018-01-24

Family

ID=51937900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013099731A Active JP6265365B2 (en) 2013-05-09 2013-05-09 Measuring system

Country Status (1)

Country Link
JP (1) JP6265365B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3862788A4 (en) * 2018-10-05 2022-07-06 Eko Instruments Co., Ltd. Meteorological observation lidar
EP3879304B1 (en) * 2018-12-06 2023-01-04 Mitsubishi Electric Corporation Laser radar device
JP2020170049A (en) * 2019-04-01 2020-10-15 日本電産コパル電子株式会社 Optical scanning device
JP2023053425A (en) * 2021-10-01 2023-04-13 国立研究開発法人宇宙航空研究開発機構 Meteorological observation system, moving object and transmitter

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4870589A (en) * 1971-12-23 1973-09-25
JPH0617819B2 (en) * 1988-05-13 1994-03-09 浜松ホトニクス株式会社 Electro-optical streak camera
JPH04264416A (en) * 1991-02-19 1992-09-21 Minolta Camera Co Ltd Optical device for image forming device
JP3286893B2 (en) * 1996-08-30 2002-05-27 三菱電機株式会社 Laser radar device
JPH10104340A (en) * 1996-09-27 1998-04-24 Nec Corp Mirror scanning type radar
JP3111218B2 (en) * 1997-12-16 2000-11-20 防衛庁技術研究本部長 Target tracking device
JP4712188B2 (en) * 2000-12-26 2011-06-29 株式会社アイ・エヌ・シー・エンジニアリング Laser radar monitoring method
JP3443106B2 (en) * 2001-04-27 2003-09-02 三菱重工業株式会社 Floating object detection / monitoring method and device
JP3646164B2 (en) * 2001-09-10 2005-05-11 独立行政法人海上技術安全研究所 Fluorescence image measuring device
US6522396B1 (en) * 2002-01-08 2003-02-18 Raytheon Company Dual mode adaptive threshold architecture for 3-D ladar FPA
JP2004028602A (en) * 2002-06-21 2004-01-29 Mitsubishi Heavy Ind Ltd Laser radar system for monitoring, and imaging method
GB0223512D0 (en) * 2002-10-10 2002-11-13 Qinetiq Ltd Bistatic laser radar apparatus

Also Published As

Publication number Publication date
JP2014219330A (en) 2014-11-20

Similar Documents

Publication Publication Date Title
CN107219533B (en) Laser radar point cloud and image co-registration formula detection system
US10996322B2 (en) Lidar sensor
US8057083B2 (en) Fibre bundle confocal endomicroscope
JP6265365B2 (en) Measuring system
US10141186B2 (en) Target image-capture device, extreme-ultraviolet-light generation device, and extreme-ultraviolet-light generation system
US20180372847A1 (en) Focal region optical elements for high-performance optical scanners
CN109100876A (en) More parallel regulating devices of optical axis and the parallel adjusting method of more optical axises
CN103994719A (en) High-precision three-dimensional imaging device based on Geiger APD arrays and using method thereof
AU2020290980B2 (en) Airborne topo-bathy lidar system and methods thereof
CN101846745A (en) Laser radar based on highly-correlated quantum imaging principle
CN107942338B (en) Multi-wavelength associated imaging system based on digital micromirror device
WO2020068249A1 (en) Lidar system with anamorphic objective lens
CN108444410A (en) Convergent laser emits optical axis and tracking optical axis parallelism measuring apparatus and method
CN101923161B (en) Device and method for detecting co-optical system and co-detector glimmer passive and laser active compound imaging
CN103954216A (en) Strong specular reflection workpiece thin and narrow groove detection device and method based on spherical surface light sources
US9395296B1 (en) Two-dimensional optical spot location using a one-dimensional detector array
US20190128740A1 (en) Streak Camera Calibration
US20150092179A1 (en) Light ranging with moving sensor array
US20200116981A1 (en) Monocentric Reception Arrangement
WO2021099761A1 (en) Imaging apparatus
CN103954217A (en) Strong specular reflection workpiece thin and narrow groove detection device and method based on strip-shaped light sources
CN103558160A (en) Method and system for improving resolution ratio of spectral imaging space
WO2019176749A1 (en) Scanning device and measuring device
CN105380638B (en) A kind of quantitative imaging devices and methods therefor for laser speckle blood flow velocity
CN107148548B (en) Multiple objective optics specify device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171213

R150 Certificate of patent or registration of utility model

Ref document number: 6265365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250