JP6019621B2 - Distance measuring device - Google Patents
Distance measuring device Download PDFInfo
- Publication number
- JP6019621B2 JP6019621B2 JP2012045235A JP2012045235A JP6019621B2 JP 6019621 B2 JP6019621 B2 JP 6019621B2 JP 2012045235 A JP2012045235 A JP 2012045235A JP 2012045235 A JP2012045235 A JP 2012045235A JP 6019621 B2 JP6019621 B2 JP 6019621B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- region
- synchronous detection
- luminance
- measuring device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 65
- 230000001360 synchronised effect Effects 0.000 claims description 61
- 238000012545 processing Methods 0.000 claims description 36
- 238000003384 imaging method Methods 0.000 claims description 16
- 230000035945 sensitivity Effects 0.000 claims description 9
- 238000003708 edge detection Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 description 52
- 230000008569 process Effects 0.000 description 43
- 238000005259 measurement Methods 0.000 description 17
- 238000012937 correction Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
Landscapes
- Measurement Of Optical Distance (AREA)
Description
本発明は、強度変調された照射光を対象物に照射して対象物までの距離を計測する距離計測装置に関する。 The present invention relates to a distance measuring apparatus that irradiates an object with intensity-modulated irradiation light and measures the distance to the object.
対象物に向けて照射光を照射し、この照射光の反射光をCCD等の撮像素子で撮像し、取得した撮像データに基づいて対象物までの距離、或いは対象物の形状を計測する光学式の距離計測装置が知られている。このような距離計測装置において、照射する光の反射光が背景光に比べて弱いと、反射光は背景光の雑音に埋もれてしまい、対象物を正しく認識できなくなる場合がある。 An optical system that irradiates an object with irradiation light, images the reflected light of the irradiation light with an image sensor such as a CCD, and measures the distance to the object or the shape of the object based on the acquired image data. A distance measuring apparatus is known. In such a distance measuring device, if the reflected light of the irradiated light is weaker than the background light, the reflected light may be buried in the background light noise and the object may not be recognized correctly.
そこで、従来より反射光が弱くなる遠方用の送受光部と、反射光が十分に強い近傍用の送受光部とで異なる波長や点滅周期にすることで、個別に計測できるようにした距離測定装置が提案されている(例えば、特許文献1参照)。 Therefore, distance measurement is made possible by making the wavelength and blinking period different for the remote transmitter / receiver unit where the reflected light is weaker than the conventional one and the near transmitter / receiver unit where the reflected light is sufficiently strong. An apparatus has been proposed (see, for example, Patent Document 1).
しかしながら、雑音に対する頑健性を高めるために正弦波等で強度変調された送信信号を用いて距離を測定する際に、背景光の光量が撮像素子の輝度感度特性における線形観測領域の上端部、或いは下端部付近に送信信号が重畳した反射光を観測する場合には、この反射光が撮像素子の非線形領域に入ってしまうことがある。 However, when measuring the distance using a transmission signal intensity-modulated with a sine wave or the like in order to enhance robustness against noise, the amount of background light is the upper end of the linear observation region in the luminance sensitivity characteristic of the image sensor, or When observing reflected light in which a transmission signal is superimposed near the lower end, this reflected light may enter a non-linear region of the image sensor.
このような場合には、撮像手段にて撮像した画像から取得される強度変調された信号の上端部(正弦波の上部ピーク領域)、或いは下端部(正弦波の下部ピーク領域)が飽和してしまい、送信信号に対して同期検波処理を実行する際の同期検波判定に誤りが生じ、十分な反射情報があるにも拘わらず、強度変調信号が非検出となってしまい、対象物までの距離計測や形状計測の精度が低下するという問題があった。 In such a case, the upper end (upper peak area of the sine wave) or lower end (lower peak area of the sine wave) of the intensity-modulated signal acquired from the image captured by the imaging means is saturated. Thus, an error occurs in the synchronous detection judgment when performing the synchronous detection process on the transmission signal, and the intensity modulation signal is not detected even though there is sufficient reflection information, and the distance to the target object There was a problem that the accuracy of measurement and shape measurement was lowered.
本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、撮像された画像から取得される強度変調信号が、撮像手段の輝度感度特性の非線形領域で検出される場合であっても対象物までの距離、形状を高精度に計測することが可能な距離計測装置を提供することにある。 The present invention has been made in order to solve such a conventional problem, and an object of the present invention is to provide an intensity-modulated signal acquired from a captured image in a non-linear region of luminance sensitivity characteristics of an imaging unit. It is to provide a distance measuring device capable of measuring the distance and shape to an object with high accuracy even when detected by the above.
上記目的を達成するため、本発明は、強度変調された照射光を照射する投光手段と、照射光が照射された対象物を撮像する撮像手段と、撮像手段にて撮像された画像から、前記投光手段での発光の強度変調と同期して輝度変動する領域を同期検波領域として抽出する同期検波処理手段とを有する。そして、同期検波手段は、撮像手段で撮像された画像の輝度出力値が該撮像手段の輝度感度特性が非線形領域で検出された場合には、この輝度出力値を撮像手段の輝度感度特性が線形領域で検出された輝度出力値を用いて補正する。 In order to achieve the above object, the present invention provides a light projecting unit that irradiates intensity-modulated irradiation light, an image capturing unit that captures an object irradiated with the irradiation light, and an image captured by the image capturing unit. And synchronous detection processing means for extracting a region where the luminance fluctuates in synchronization with the intensity modulation of light emission by the light projecting means as a synchronous detection region. Then, the synchronous detection means, when the luminance output values of the image captured by the imaging means brightness sensitivity characteristic of the image pickup means is detected by the non-linear region, the luminance output value luminance sensitivity characteristic of the imaging means linear Correction is performed using the luminance output value detected in the region.
本発明に係る距離計測装置では、強度変調された照射光を用いて対象物までの距離を計測する際に、撮像手段の非線形領域の輝度出力値が一部観測される場合においても、照射光の同期検波計測を誤ることなく、安定した距離計測または形状計測を実施することができる。 In the distance measuring device according to the present invention, when measuring the distance to the object using the intensity-modulated irradiation light, even when the luminance output value of the nonlinear region of the imaging means is partially observed, the irradiation light Thus, stable distance measurement or shape measurement can be carried out without mistaken synchronous detection measurement.
以下、本発明の実施形態を図面に基づいて説明する。図1は、本発明の一実施形態に係る距離計測装置100の構成を示すブロック図である。図1に示すように、該距離計測装置100は、車両(移動体)に搭載されるものであり、車両周囲の距離測定の対象となる観測対象物Pに向けて照射光を照射する投光部(投光手段)11と、照射光が照射された観測対象物Pの映像を撮像するカメラ(撮像手段)12と、投光部11による照射光の照射を制御する投光制御部14と、カメラ12で撮像された画像信号に対して同期検波処理を加える同期検波処理部(同期検波処理手段)13と、同期検波された画像から観測対象物Pの上端エッジを検出する上端エッジ検出部15と、上端エッジ検出部15で検出されたエッジに基づいて車両から観測対象物Pまでの距離を算出する距離算出部16と、を備えている。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a distance measuring apparatus 100 according to an embodiment of the present invention. As shown in FIG. 1, the distance measuring device 100 is mounted on a vehicle (moving body), and projects light that irradiates irradiation light toward an observation target P that is a target of distance measurement around the vehicle. A unit (light projecting unit) 11, a camera (imaging unit) 12 that captures an image of the observation object P irradiated with the irradiation light, and a light projection control unit 14 that controls irradiation of the irradiation light by the light projecting unit 11. A synchronous detection processing unit (synchronous detection processing means) 13 for performing synchronous detection processing on the image signal captured by the camera 12, and an upper edge detection unit for detecting the upper edge of the observation object P from the synchronously detected image. 15 and a distance calculation unit 16 that calculates the distance from the vehicle to the observation object P based on the edge detected by the upper edge detection unit 15.
なお、本実施形態では、移動体が車両である場合を例に挙げて説明するが、本発明はこれに限定されるものではなく、鉄道車両や船舶等の他の移動体についても適用することが可能である。また、本実施形態に係る距離計測装置100は、例えば、中央演算ユニット(CPU)や、RAM、ROM、ハードディスク等の記憶手段からなる一体型のコンピュータを用いて構成することができる。 In the present embodiment, the case where the moving body is a vehicle will be described as an example. However, the present invention is not limited to this, and the present invention is also applicable to other moving bodies such as a railway vehicle and a ship. Is possible. Further, the distance measuring apparatus 100 according to the present embodiment can be configured using, for example, an integrated computer including a central processing unit (CPU) and storage means such as RAM, ROM, and hard disk.
投光部11は、例えば、プロジェクタヘッドライトやリフレクタを備えたヘッドライトであり、水平方向に発光領域を形成する配光特性を有する照射光を観測対象物Pに向けて照射する。そして、観測対象物Pに照射光を照射することにより、該観測対象物P上に、照射領域と非照射領域との輝度境界を鮮明に映し出すことができる。また、該投光部11の発光源として、可視光、赤外光、或いは紫外光の発光源を用いることができる。 The light projecting unit 11 is, for example, a headlight including a projector headlight or a reflector, and irradiates the observation target P with irradiation light having a light distribution characteristic that forms a light emitting region in the horizontal direction. Then, by irradiating the observation target P with irradiation light, the luminance boundary between the irradiation region and the non-irradiation region can be clearly projected on the observation target P. Further, as the light source of the light projecting unit 11, a light source of visible light, infrared light, or ultraviolet light can be used.
カメラ12は、CCDやCMOS等の撮像素子を備えており、車両周囲の画像を撮像し、更にこれに加えて、投光部11により照射された照射光が観測対象物Pで反射した反射光を受光する。 The camera 12 includes an image pickup device such as a CCD or a CMOS, picks up an image around the vehicle, and in addition to this, the reflected light reflected by the observation target P is irradiated light emitted from the light projecting unit 11. Is received.
投光制御部14は、投光部11より出射する照射光をPWM制御する際のパルス点灯及び消灯タイミングのトリガ信号を出力するとともに、カメラ12による撮像タイミングのトリガ信号とシャッター時間の制御信号を出力している。また、PWM制御で使用した搬送波(キャリア周波数)信号を同期検波処理部13に出力している。 The light projecting control unit 14 outputs a trigger signal for pulse lighting and extinguishing timing when the irradiation light emitted from the light projecting unit 11 is PWM-controlled, and outputs a trigger signal for imaging timing by the camera 12 and a control signal for shutter time. Output. In addition, a carrier wave (carrier frequency) signal used in PWM control is output to the synchronous detection processing unit 13.
同期検波処理部13は、カメラ12にて時系列的に撮像される画像を順次記憶し、記憶した画像中の全画素(或いは、画像中に処理領域を制限した場合は、画像処理領域中の全画素)において、投光制御部14から出力される照射光に含まれる変調信号を同期検波することにより、照射光強度と同期して輝度変化する画素のみを抽出した照射光抽出画像を出力する。そして、この照射光抽出画像を上端エッジ検出部15に出力する。なお、同期検波処理部13の詳細な構成については、図2に示すブロック図を参照して後述する。 The synchronous detection processing unit 13 sequentially stores images captured in time series by the camera 12, and all the pixels in the stored image (or in the case where the processing region is limited in the image, In all the pixels), the modulated signal included in the irradiation light output from the light projection control unit 14 is synchronously detected to output an irradiation light extraction image in which only pixels whose luminance changes in synchronization with the irradiation light intensity are extracted. . Then, the irradiation light extraction image is output to the upper edge detection unit 15. The detailed configuration of the synchronous detection processing unit 13 will be described later with reference to the block diagram shown in FIG.
上端エッジ検出部15は、同期検波処理部13により抽出された照射光抽出画像より、照射光の上端エッジ部の位置を検出し、その画像内の縦位置情報(図6に示す照射光の上端エッジr1の上下方向の位置情報)を出力する。 The upper edge detection unit 15 detects the position of the upper edge portion of the irradiation light from the irradiation light extracted image extracted by the synchronous detection processing unit 13, and the vertical position information in the image (the upper end of the irradiation light shown in FIG. 6). Position information in the vertical direction of the edge r1) is output.
距離算出部16は、上端エッジ検出部15より出力される上端エッジの縦位置情報に用いて、照射光上端エッジの照射方向と、カメラ12の視軸がなす角度及びレイアウトに基づき、三角測量の原理により、照射光が照射されている周囲物体までの距離を算出する。この算出の手順については、図7を参照して後述する。 The distance calculation unit 16 uses the vertical position information of the upper edge output from the upper edge detection unit 15, based on the irradiation direction of the irradiation light upper edge, the angle formed by the visual axis of the camera 12, and the layout. Based on the principle, the distance to the surrounding object irradiated with the irradiation light is calculated. The calculation procedure will be described later with reference to FIG.
図2は、同期検波処理部13の詳細な構成を示すブロック図である。図示のように、同期検波処理部13は、画像メモリ21と、オフセット補正演算部22と、直流成分除去処理部23と、波形乗算部24、及び同期検波判定部25を備えている。 FIG. 2 is a block diagram showing a detailed configuration of the synchronous detection processing unit 13. As illustrated, the synchronous detection processing unit 13 includes an image memory 21, an offset correction calculation unit 22, a DC component removal processing unit 23, a waveform multiplication unit 24, and a synchronous detection determination unit 25.
画像メモリ21は、カメラ12で撮像される画像を、投光制御の変調周期に相当する枚数分だけ記憶する。 The image memory 21 stores the number of images captured by the camera 12 by the number corresponding to the modulation period of the light projection control.
オフセット補正演算部22は、画像メモリ21に記憶された画像中に撮像素子の非線形領域の輝度出力値の存在状況に応じて、該当する画素の直流オフセット成分を補正する処理を行う。また、後述する図11に示すように、画像中の輝度出力値の上端部、或いは下端部で歪みが生じた場合には、この歪みを補正する処理を行う。 The offset correction calculation unit 22 performs a process of correcting the DC offset component of the corresponding pixel in the image stored in the image memory 21 according to the presence state of the luminance output value of the nonlinear region of the image sensor. Also, as shown in FIG. 11 described later, when distortion occurs at the upper end or lower end of the luminance output value in the image, processing for correcting this distortion is performed.
直流成分除去処理部23は、画像メモリ21に記憶された画像から、オフセット補正後の直流オフセット成分を除去する処理を行う。 The DC component removal processing unit 23 performs a process of removing the DC offset component after offset correction from the image stored in the image memory 21.
波形乗算部24は、直流成分除去処理部23で直流成分が除去された画像の画素ごとに投光制御の変調信号を乗算する。 The waveform multiplication unit 24 multiplies the modulation signal for light projection control for each pixel of the image from which the DC component has been removed by the DC component removal processing unit 23.
同期検波判定部25は、波形乗算部24で変調信号が乗算された信号の正負判定により、投光の変調信号との同期判定を行う。 The synchronous detection determination unit 25 performs synchronization determination with the light modulation signal by determining whether the signal multiplied by the modulation signal by the waveform multiplication unit 24 is positive or negative.
次に、同期検波処理部13における一般的な同期検波の基本原理を、図3に示す模式図、及び図4に示すタイミングチャートを参照して説明する。本実施形態に係る距離計測装置100では、投光部11より観測対象物Pに向けて照射光を照射し、該観測対象物Pで反射した反射光を検出する際に、照射した照射光を他の光と区別して検出する。この際、照射した照射光のみを頑健に検出する処理として、同期検波処理を用いている。 Next, a basic principle of general synchronous detection in the synchronous detection processing unit 13 will be described with reference to a schematic diagram shown in FIG. 3 and a timing chart shown in FIG. In the distance measuring apparatus 100 according to the present embodiment, the irradiation light is emitted from the light projecting unit 11 toward the observation target P, and the reflected light reflected by the observation target P is detected. It is detected separately from other lights. At this time, synchronous detection processing is used as processing for robustly detecting only irradiated irradiation light.
本実施形態では、カメラ12により撮像された画像の全画素、或いは処理領域として設定された画像領域中の全画素について、この同期検波処理を実施し、各画素にて照射光の抽出を行う。以下、図3,図4を参照して詳細に説明する。 In the present embodiment, this synchronous detection processing is performed on all the pixels of the image captured by the camera 12 or all the pixels in the image region set as the processing region, and the irradiation light is extracted at each pixel. Hereinafter, a detailed description will be given with reference to FIGS.
図3に示す送信信号S(t)(tは時間)は、図4(a)に示すように、一定の時間間隔で「1」「0」のいずれかに変化するバイナリ信号とする。この送信信号S(t)を送出する際に、該送信信号S(t)に対して十分高い周波数ωを持つ搬送波sin(ωt)を送信信号S(t)で位相変調して、BPSK(Binary Phase Shift Keying:二位相偏移変調)送信信号を生成する。具体的には、S(t)=1の場合には、切替部31を上側に切り替えて搬送波sin(ωt)をそのまま出力し、S(t)=0の場合には、切替部31を下側に切り替えて搬送波sin(ωt)を、π(180度)だけ位相をシフトした波形を出力する。 The transmission signal S (t) (t is time) shown in FIG. 3 is a binary signal that changes to “1” or “0” at a constant time interval, as shown in FIG. When transmitting the transmission signal S (t), a carrier wave sin (ωt) having a sufficiently high frequency ω with respect to the transmission signal S (t) is phase-modulated with the transmission signal S (t), and BPSK (Binary (Phase Shift Keying) Generates a transmission signal. Specifically, when S (t) = 1, the switching unit 31 is switched upward to output the carrier wave sin (ωt) as it is, and when S (t) = 0, the switching unit 31 is moved down. The waveform of the carrier wave sin (ωt) shifted in phase by π (180 degrees) is output.
その結果、図4(b)に示す如くの位相変調された波形(S(t)=0の場合には位相が180度シフトしている)の信号が生成され、投光部11より周囲物体である観測対象物Pに向けて照射される(図3の符号q1参照)。即ち、投光部11より送出される変調信号は、「2×(S(t)−0.5)×sin(ωt)」で示されることになる。 As a result, a signal having a phase-modulated waveform as shown in FIG. 4B (when S (t) = 0, the phase is shifted by 180 degrees) is generated. Is irradiated toward the observation object P (see symbol q1 in FIG. 3). That is, the modulation signal transmitted from the light projecting unit 11 is represented by “2 × (S (t) −0.5) × sin (ωt)”.
一方、観測対象物Pに照射された照射光は該観測対象物Pにて反射し(図3の符号q2参照)、カメラ12にて撮像される。そして、画像に含まれる変調信号は、DC成分が除去され、更に、乗算部にて搬送波sin(ωt)が乗じられる。変調信号に対して搬送波sin(ωt)を乗算すると、下記(1)式となる。 On the other hand, the irradiation light irradiated to the observation target P is reflected by the observation target P (see symbol q2 in FIG. 3) and is captured by the camera 12. Then, the DC component is removed from the modulation signal included in the image, and the multiplication unit multiplies the carrier wave sin (ωt). When the modulated signal is multiplied by the carrier wave sin (ωt), the following equation (1) is obtained.
A×(S(t)−0.5)×sin(ωt)×sin(ωt)
= A×(S(t)−0.5)×(1−cos(2ωt))/2 …(1)
なお、Aは反射の影響を含む定数である。
(1)式より、乗算部の出力信号は、周波数の和(DC成分)と差(2倍の高調波成分)の信号成分が混在した信号となる。即ち、図4(c)に示すように、周波数が2倍となり、且つ、S(t)=1のときにプラス側に振幅し、S(t)=0のときにマイナス側に振幅する波形が得られる。
A × (S (t) −0.5) × sin (ωt) × sin (ωt)
= A × (S (t) −0.5) × (1-cos (2ωt)) / 2 (1)
A is a constant including the influence of reflection.
From the equation (1), the output signal of the multiplication unit is a signal in which the signal components of the sum of frequencies (DC component) and the difference (double harmonic component) are mixed. That is, as shown in FIG. 4 (c), a waveform whose frequency is doubled and amplitude is positive when S (t) = 1, and is negative when S (t) = 0. Is obtained.
その後、LPF(低域通過フィルタ)を用いて高周数成分を除去することにより平滑化され、更に、正負判定することにより、図4(d)に示すように、復号信号として、送信されたバイナリ信号S(t)を取り出すことができる。なお、上記では、検波信号としてBPSK送信信号を用いる例について説明したが、これ以外の振幅変調、位相変調、周波数変調、或いはこれらの組み合わせを用いることも可能である。 After that, smoothing is performed by removing high frequency components using an LPF (low-pass filter), and further, a positive / negative determination is made, and as shown in FIG. The binary signal S (t) can be taken out. In the above description, an example in which a BPSK transmission signal is used as a detection signal has been described. However, other amplitude modulation, phase modulation, frequency modulation, or a combination thereof can be used.
そして、図2に示す同期検波処理部13は、図3,図4に示した原理に基づき、カメラ12で撮像された画像を画像メモリ21に記憶し、オフセット補正演算部22にて、画像メモリ21に記憶された画像中にカメラ12の非線形領域の輝度出力値の存在状況に応じて、該当する画素の直流オフセット成分を補正する処理を行い、且つ、輝度出力値の歪みを補正する処理を行う。 The synchronous detection processing unit 13 shown in FIG. 2 stores an image captured by the camera 12 in the image memory 21 based on the principle shown in FIGS. A process of correcting the DC offset component of the corresponding pixel in accordance with the presence state of the luminance output value of the non-linear region of the camera 12 in the image stored in 21 and a process of correcting distortion of the luminance output value Do.
更に、直流成分除去処理部23にて、画像メモリ21に記憶された画像から、オフセット補正後の直流オフセット成分を除去する処理を行う。その後、波形乗算部24にて、直直流成分が除去された画像の画素ごとに投光制御の変調信号を乗算する。更に、同期検波判定部25にて、変調信号が乗算された信号の正負判定により、投光の変調信号との同期判定を行う。 Further, the DC component removal processing unit 23 performs a process of removing the DC offset component after the offset correction from the image stored in the image memory 21. After that, the waveform multiplication unit 24 multiplies the modulation signal for light projection control for each pixel of the image from which the direct DC component has been removed. Further, the synchronous detection determination unit 25 determines the synchronization with the light modulation signal by determining whether the signal multiplied by the modulation signal is positive or negative.
次に、投光部11より投光される照射光(水平方向に発光領域を有する光)の投光パターンについて説明する。上述したように、車両に搭載される投光部11は、投光領域の上端部に明暗が鮮明な水平パターンを有する照射光を照射する。以下、この配光パターンについて、図5,図6を参照して説明する。図5は、車両Qに搭載される投光部11より、観測対象物Pに向けて照射光を照射する様子を示す説明図であり、図6は、照射光を観測対象物Pに照射した際の、カメラ12により撮像された画像を示す図である。 Next, a light projection pattern of irradiation light (light having a light emitting region in the horizontal direction) projected from the light projecting unit 11 will be described. As described above, the light projecting unit 11 mounted on the vehicle irradiates the upper end portion of the light projecting area with the irradiation light having a bright and dark horizontal pattern. Hereinafter, this light distribution pattern will be described with reference to FIGS. FIG. 5 is an explanatory diagram showing a state in which irradiation light is irradiated toward the observation target P from the light projecting unit 11 mounted on the vehicle Q, and FIG. 6 irradiates the observation target P with the irradiation light. It is a figure which shows the image imaged with the camera 12 at the time.
車両Qの姿勢が変化することや、観測対象物Pが移動することにより、車両Qと観測対象物Pとの間の相対的な位置関係に変化が生じる場合であっても、安定的に領域光を抽出するためには、検波に必要な時系列的な画像フレームにおいて、照射光が観測対象物P上の同一箇所に連続して観測される必要がある。 Even if the relative positional relationship between the vehicle Q and the observation target P changes due to the change in the attitude of the vehicle Q or the movement of the observation target P, the region is stably displayed. In order to extract light, irradiation light needs to be continuously observed at the same location on the observation target P in a time-series image frame necessary for detection.
現実的には、車両及び観測対象物Pの動きに制約を設けることはできないので、車両Q及び観測対象物Pが任意の動きをした場合でも、安定した照射光抽出を実現するために十分な照射光の抽出領域を設定する必要がある。そこで、本実施形態では、図6に示すように、水平方向に広がる(水平方向に長い)発光領域を有する照射光を用いている。 Actually, since there is no restriction on the movement of the vehicle and the observation object P, even when the vehicle Q and the observation object P move arbitrarily, it is sufficient to realize stable extraction of irradiation light. It is necessary to set the extraction area of the irradiation light. Therefore, in the present embodiment, as shown in FIG. 6, irradiation light having a light emitting region that spreads in the horizontal direction (long in the horizontal direction) is used.
次に、領域光の上端エッジを用いて、観測対象物Pまでの距離を計測する原理について、図7に示す模式図を参照して説明する。図7に示すように、投光部11より照射される領域光の広がり方向(横方向)とは垂直な方向(縦方向)にオフセットした位置に、カメラ12が配置される。投光部11から投光される領域光が観測対象物Pに照射され、カメラ12では、観測対象物Pの表面で反射した領域光を撮像する。ここで、投光部11の領域光上端部の照射角度(図7の例では0度)、投光部11とカメラ12との距離(高低差)Dy、カメラ12の俯角αに基づき、観測対象物Pまでの距離Zに応じて、領域光の上端部が観測される上下方位βが変化する。従って、カメラ12で観測される照射領域上端の上下位置yを用いて、三角測量の原理により観測対象物Pまでの距離Zを算出することができる。 Next, the principle of measuring the distance to the observation object P using the upper edge of the region light will be described with reference to the schematic diagram shown in FIG. As shown in FIG. 7, the camera 12 is arranged at a position offset in a direction (vertical direction) perpendicular to the spreading direction (horizontal direction) of the region light irradiated from the light projecting unit 11. The area light projected from the light projecting unit 11 is irradiated onto the observation object P, and the camera 12 images the area light reflected on the surface of the observation object P. Here, based on the irradiation angle (0 degree in the example of FIG. 7) of the area light upper end of the light projecting unit 11, the distance (height difference) Dy between the light projecting unit 11 and the camera 12, and the depression angle α of the camera 12 is observed. Depending on the distance Z to the object P, the vertical direction β at which the upper end of the region light is observed changes. Therefore, the distance Z to the observation object P can be calculated based on the principle of triangulation using the vertical position y at the upper end of the irradiation area observed by the camera 12.
次に、強度変調された照射光を用いた距離計測において、非検出誤差を生じる理由について、図8〜図10を参照して説明する。 Next, the reason why non-detection errors occur in distance measurement using intensity-modulated irradiation light will be described with reference to FIGS.
図8は、撮像素子の輝度感度特性を示す図であり、カメラ12の撮像素子に入射する光強度(横軸)と、輝度出力値(縦軸)との関係を示している。観測対象物Pには、投光部11より照射される照射光以外に、太陽光等の背景光が照射されており、この背景光の直流成分強度に応じて、カメラ12で撮像される画像の入射光強度が変化する。 FIG. 8 is a diagram showing luminance sensitivity characteristics of the image sensor, and shows the relationship between the light intensity (horizontal axis) incident on the image sensor of the camera 12 and the luminance output value (vertical axis). The observation target P is irradiated with background light such as sunlight in addition to the irradiation light irradiated from the light projecting unit 11, and an image captured by the camera 12 according to the DC component intensity of the background light. The incident light intensity changes.
そして、この背景光の直流成分が大きい場合(背景光N1の場合)で、この背景光に対して、強度変調された照射光の反射光(A1)が重畳した場合には、入射光強度(カメラ12で撮像される画像の輝度)は大きくなるので、カメラ12に搭載される撮像素子の非線形領域P1での検出となり、該カメラ12にて検出される輝度出力値は、波形(B1)のような上端部に歪みが生じる信号波形となる。 When the DC component of the background light is large (in the case of the background light N1) and the reflected light (A1) of the irradiation light whose intensity is modulated is superimposed on the background light, the incident light intensity ( Since the brightness of the image captured by the camera 12 increases, detection is performed in the nonlinear region P1 of the image sensor mounted on the camera 12, and the brightness output value detected by the camera 12 is the waveform (B1). Such a signal waveform causes distortion at the upper end.
一方、背景光の直流成分が小さい場合(背景光N2の場合)で、この背景光に対して、強度変調された照射光の反射光(A2)が重畳した場合には、入射光強度は小さくなるので、撮像素子の非線形領域P2での検出となり、上記と同様にカメラ12にて検出される輝度出力値は、波形(B2)のような下端部に歪みが生じる信号波形となる。 On the other hand, when the DC component of the background light is small (in the case of the background light N2) and the reflected light (A2) of the irradiation light whose intensity is modulated is superimposed on the background light, the incident light intensity is small. Therefore, the detection is performed in the nonlinear region P2 of the image sensor, and the luminance output value detected by the camera 12 is a signal waveform in which distortion is generated at the lower end as in the waveform (B2) as described above.
図9は、上端部が歪んだ信号が観測される画素の時系列的な輝度変化を示す特性図である。図9に示す領域Cは、カメラ12の非線形特性により飽和検出されたサンプル点群を示している。この受信波形が歪んだ状態では直流オフセット成分(=A/2;上記(1)式参照)を正確に得ることができず、同期検波演算を実施すると、前述した(1)式の演算後の正負判定によるバイナリ信号S(t)の復元に誤りを生じてしまうことになる。即ち、図8に示す非線形領域P1,P2が存在することにより、カメラ12で撮像される入射光の強度に対して、輝度出力値に歪みが生じるので(図9の領域Cが存在するので)、正確な同期検波処理ができなくなってしまう。 FIG. 9 is a characteristic diagram showing a time-series luminance change of a pixel in which a signal with a distorted upper end is observed. A region C shown in FIG. 9 shows a sample point group that is detected by saturation due to the nonlinear characteristic of the camera 12. In the state where the received waveform is distorted, the DC offset component (= A / 2; see the above formula (1)) cannot be obtained accurately, and if the synchronous detection calculation is performed, An error occurs in the restoration of the binary signal S (t) by the positive / negative determination. That is, since the nonlinear regions P1 and P2 shown in FIG. 8 exist, the luminance output value is distorted with respect to the intensity of incident light imaged by the camera 12 (because the region C in FIG. 9 exists). Thus, accurate synchronous detection processing cannot be performed.
また、図10は、下端部が歪んだ信号が観測される画素の時系列的な輝度変化を示す特性図であり、やはり領域Cが飽和検出されている。そして、上述した図9と同様に、この領域Cにより、正確な同期検波処理ができなくなってしまう。 FIG. 10 is a characteristic diagram showing a time-series luminance change of a pixel in which a signal with a distorted lower end is observed, and the region C is also detected as being saturated. Then, as in FIG. 9 described above, this region C makes it impossible to perform accurate synchronous detection processing.
本実施形態では、下記の手法によりカメラ12の撮像素子の非線形領域P1,P2での信号歪みを補正することにより、高精度な同期検波処理を実行して距離計測の精度を向上させる。 In the present embodiment, by correcting signal distortion in the nonlinear regions P1 and P2 of the image sensor of the camera 12 by the following method, highly accurate synchronous detection processing is executed to improve distance measurement accuracy.
以下、上記の非線形領域での信号歪みを補正する方法について説明する。本実施形態では、カメラ12で検出される強度変調信号に含まれるサンプル点群に、非線形領域の出力値が観測された場合で、そのサンプル点数が変調周期内のサンプル点数の半分以下である場合に、カメラ12の撮像素子の線形領域で検出されているサンプル点群(図9の領域Dで検出されるサンプル点群)を用いて、図9の領域C内のサンプル点の輝度出力値に不足しているオーバーシュート量を演算して、各サンプル点の輝度出力値を補正する。そして、補正により取得される補正波形と搬送波とを用いて同期検波処理を実施することにより、非検出となることなく(同期検波不能となることなく)、同期検波処理を継続して実行できるようになる。 Hereinafter, a method for correcting the signal distortion in the nonlinear region will be described. In the present embodiment, when the output value of the nonlinear region is observed in the sample point group included in the intensity modulation signal detected by the camera 12, and the number of sample points is less than or equal to half the number of sample points in the modulation period. In addition, using the sample point group detected in the linear region of the image sensor of the camera 12 (sample point group detected in the region D in FIG. 9), the luminance output value of the sample point in the region C in FIG. The insufficient overshoot amount is calculated to correct the luminance output value at each sample point. Then, by performing the synchronous detection process using the correction waveform acquired by the correction and the carrier wave, the synchronous detection process can be continuously executed without being undetected (without being disabled in synchronous detection). become.
以下、図11を参照してサンプル点の輝度出力値を補正する処理について説明する。図11に示すように、変調信号をG1、輝度出力をG2とし、変調信号の出力値(BPSK信号の振幅値)b1,b2,b3に対する輝度出力値をそれぞれa1,a2,a3とする。また、a1,a2は、線形領域内での輝度出力値であり、a3は、非線形領域での輝度出力値であり、輝度出力の補正値(オーバーシュート分)をΔaとする。すると、次の(2)式が成立する。 Hereinafter, the process of correcting the luminance output value of the sample point will be described with reference to FIG. As shown in FIG. 11, the modulation signal is G1, the luminance output is G2, and the luminance output values for the modulation signal output values (amplitude values of the BPSK signal) b1, b2, and b3 are a1, a2, and a3, respectively. Further, a1 and a2 are luminance output values in the linear region, a3 is a luminance output value in the non-linear region, and a correction value (overshoot) of the luminance output is Δa. Then, the following equation (2) is established.
(a2−a1)/(b2−b1)={(a3+Δa)−a2}/(b3−b2)
…(2)
そして、(2)式を変形すると、次の(3)式が得られる。
(A2-a1) / (b2-b1) = {(a3 + Δa) -a2} / (b3-b2)
... (2)
Then, when the formula (2) is modified, the following formula (3) is obtained.
(a3+Δa)={(a2−a1)・(b3−b2)/(b2−b1)}+a2
…(3)
従って、「a3+Δa」は、上記(3)式で求めることができ、(3)式により、撮像素子の非線形領域で検出された輝度出力値を補正することができる。即ち、図8の符号B1,B2に示した輝度出力値を、歪みのない波形に補正することができる。この処理は、図2に示したオフセット補正演算部22により演算される。
(A3 + Δa) = {(a2-a1). (B3-b2) / (b2-b1)} + a2
... (3)
Therefore, “a3 + Δa” can be obtained by the above equation (3), and the luminance output value detected in the nonlinear region of the image sensor can be corrected by the equation (3). That is, the luminance output values indicated by the symbols B1 and B2 in FIG. 8 can be corrected to a waveform without distortion. This process is calculated by the offset correction calculation unit 22 shown in FIG.
なお、上記では、上端部が歪んだ波形を補正する例(図9の場合)について説明したが、下端部が歪んだ場合(図10の場合)についても同様に補正することが可能である。 In the above description, the example of correcting the waveform with the upper end distorted (in the case of FIG. 9) has been described. However, the same correction can be made when the lower end is distorted (in the case of FIG. 10).
次に、本実施形態に係る距離計測装置の処理手順を、図12,図13に示すフローチャートを参照して説明する。 Next, the processing procedure of the distance measuring apparatus according to this embodiment will be described with reference to the flowcharts shown in FIGS.
初めに、ステップS1において、カメラ12から画像を取得して画像メモリ21(図2参照)に保存する。ステップS2において、同期検波に必要なフレーム数の画像が画像メモリ21に保存されているか否かを判定し、同期検波に必要な画像数が保存されてなければ、ステップS1に処理を戻し、同期検波に必要な画像数が保存されていれば、ステップS3に移行する。 First, in step S1, an image is acquired from the camera 12 and stored in the image memory 21 (see FIG. 2). In step S2, it is determined whether or not the number of frames required for synchronous detection is stored in the image memory 21, and if the number of images required for synchronous detection is not stored, the process returns to step S1 to synchronize. If the number of images necessary for detection is stored, the process proceeds to step S3.
ステップS3において、後述する同期検波処理を実行する。その後、ステップS4に移行する。ステップS4において、同期検出された領域の上端エッジを抽出し、ステップS5に移行する。 In step S3, a synchronous detection process to be described later is executed. Thereafter, the process proceeds to step S4. In step S4, the upper edge of the synchronously detected area is extracted, and the process proceeds to step S5.
ステップS5において、ステップS4の処理で検出された上端エッジのデータに基づき、三角測量による距離計測処理を行う。即ち、図7に示した手法に基づいて、観測対象物Pまでの距離を計測する。その後、ステップS6に移行する。 In step S5, a distance measurement process by triangulation is performed based on the data of the upper edge detected in the process of step S4. That is, the distance to the observation object P is measured based on the method shown in FIG. Thereafter, the process proceeds to step S6.
ステップS6において、ステップS5の処理で求められた距離値を下位のシステムに出力する。その後、本処理を終了する。こうして、カメラ12の取り付け位置から、観測対象物Pまでの距離を計測することができる。 In step S6, the distance value obtained in step S5 is output to the lower system. Thereafter, this process is terminated. Thus, the distance from the attachment position of the camera 12 to the observation object P can be measured.
次に、ステップS3に示した同期検波処理の手順について、図13に示すフローチャートを参照して説明する。 Next, the procedure of the synchronous detection process shown in step S3 will be described with reference to the flowchart shown in FIG.
初めに、ステップS11において同期検波処理を開始し、ステップS12において、画像メモリ21に記憶されている画像から、同期検波に必要な枚数の時系列画像データを取得する。その後、ステップS13に移行する。 First, synchronous detection processing is started in step S11. In step S12, the time-series image data of the number required for synchronous detection is acquired from the image stored in the image memory 21. Thereafter, the process proceeds to step S13.
ステップS13において、画素単位で時系列データ中に撮像素子の非線形領域に相当する輝度出力値が存在するか否かを判定し、存在すると判定された場合はステップS14に移行し、存在しないと判定された場合にはステップS16に移行する。 In step S13, it is determined whether or not there is a luminance output value corresponding to the nonlinear region of the image sensor in the time-series data in pixel units. If it is determined that the luminance output value exists, the process proceeds to step S14, and it is determined that it does not exist. If so, the process proceeds to step S16.
ステップS14において、非線形領域に相当する輝度出力が変調周期内の半数以下(50%以下)であるか否か判定する。具体的には、図9の領域Cに示したサンプル点の個数が全体(1周期分)のサンプル点の個数の半数以下であるか否かを判定する。そして、半数以下と判定された場合には(ステップS14でYES)、ステップS15において、線形領域の輝度出力値に基づいて振幅を補正する。具体的には、図11に示した手法を用いてオーバーシュート分であるΔaを算出して、輝度出力値の振幅を補正する。その後、ステップS16に移行する。 In step S14, it is determined whether or not the luminance output corresponding to the nonlinear region is less than half (50% or less) within the modulation period. Specifically, it is determined whether or not the number of sample points shown in region C of FIG. 9 is less than or equal to half of the total number of sample points (for one period). If it is determined that the number is less than half (YES in step S14), the amplitude is corrected based on the luminance output value of the linear region in step S15. Specifically, Δa, which is the amount of overshoot, is calculated using the method shown in FIG. 11, and the amplitude of the luminance output value is corrected. Thereafter, the process proceeds to step S16.
ステップS16において、画素単位での平均処理を行い、各画素の平均値を各時系列データから除算することでDCオフセット成分を除去する。その後、ステップS17に移行する。ステップS17において、オフセット調整された時系列データと搬送波とを乗算する。その後、ステップS18に移行する。 In step S16, an average process is performed on a pixel basis, and the DC offset component is removed by dividing the average value of each pixel from each time series data. Thereafter, the process proceeds to step S17. In step S17, the offset-adjusted time series data is multiplied by the carrier wave. Thereafter, the process proceeds to step S18.
ステップS18において、乗算後の結果の正負判定結果と送信信号S(t)とが同期しているか否かを判定し、同期していればステップS19に移行して、画素を同期色(例として、白色:8bit階調の場合は「255」)で上書きする。一方、同期していなければステップS20に移行し、画素を非同期色(例として、黒色:8bit階調の場合は「0」)で上書きする。その後、ステップS22に移行する。 In step S18, it is determined whether the positive / negative determination result of the result after multiplication and the transmission signal S (t) are synchronized. If they are synchronized, the process proceeds to step S19, and the pixel is set to a synchronous color (as an example). White: Overwrite with “255” in the case of 8-bit gradation. On the other hand, if not synchronized, the process proceeds to step S20, and the pixel is overwritten with an asynchronous color (for example, black: “0” in the case of 8-bit gradation). Thereafter, the process proceeds to step S22.
また、ステップS14の処理で非線形領域の輝度出力数が全体の半数よりも大きいと判定された場合には、ステップS21において、同期判定不可と色付け(例として、灰色:8bit階調の場合は「127」)して出力する。即ち、非線形領域の輝度出力数が全体の半数よりも大きい場合には、線形領域のデータを用いた補正が困難であるので、この場合には同期検波ができないものと判断する。その後、ステップS22に移行する。 If it is determined in step S14 that the number of luminance outputs in the non-linear area is larger than half of the whole, in step S21, it is determined that synchronization determination is impossible (for example, in the case of gray: 8-bit gradation, “ 127 ") and output. That is, when the number of luminance outputs in the non-linear region is larger than half of the whole, correction using the data in the linear region is difficult, and in this case, it is determined that synchronous detection cannot be performed. Thereafter, the process proceeds to step S22.
ステップS22において、全画素で判定が終了したか否かを判定し、終了していなければステップS12に処理を戻し、終了していない画素について同期検波判断を実行する。一方、全画素の判定が終了していれば、ステップS23に移行して同期検波画像を出力する。その後、本処理を終了する。 In step S22, it is determined whether or not the determination has been completed for all the pixels. If the determination has not been completed, the process returns to step S12, and the synchronous detection determination is performed for the pixels that have not been completed. On the other hand, if all the pixels have been determined, the process proceeds to step S23 to output a synchronous detection image. Thereafter, this process is terminated.
次に、カメラ12の視軸が、上端エッジが照射される方向に対して所定の俯角を有するように設定することにより、分解能を向上させることができることについて説明する。 Next, it will be described that the resolution can be improved by setting the visual axis of the camera 12 to have a predetermined depression angle with respect to the direction in which the upper edge is irradiated.
1個のカメラ12で広域を観測するためには、通常、広角レンズが用いられる。一般的な広角レンズは、射影方式として等距離射影レンズ(いわゆる、fθレンズ)を採用しており、周辺視野では中心視野に比べて分解能が劣る。このような広角レンズとの組み合わせにおいては、カメラ視軸に俯角(或いは仰角)を持たせ、分解能が高い領域を監視したい領域に向けて適切に設定することが肝要となる。 In order to observe a wide area with one camera 12, a wide-angle lens is usually used. A general wide-angle lens employs an equidistant projection lens (so-called fθ lens) as a projection method, and the peripheral visual field has a lower resolution than the central visual field. In combination with such a wide-angle lens, it is important that the camera viewing axis has a depression angle (or elevation angle) and an area with high resolution is set appropriately for the area to be monitored.
以下、fθレンズとの組み合せにおいて、簡単のために、照射光の上端エッジが路面に対して水平である場合を仮定し、カメラ視軸の俯角がある場合に、被観測対象までの距離計測値の分解能が向上することを、図14,図15を参照して説明する。カメラ視軸に俯角が無い場合を図14に示し、俯角が有る場合を図15に示す。 Hereinafter, for the sake of simplicity in the combination with the fθ lens, it is assumed that the upper edge of the irradiated light is horizontal with respect to the road surface, and the distance measurement value to the object to be observed when there is a depression angle of the camera visual axis. The improvement of the resolution will be described with reference to FIGS. FIG. 14 shows a case where there is no depression angle on the camera visual axis, and FIG. 15 shows a case where there is a depression angle.
図14,図15で、視軸方向の画素位置をy(j)とし、y(j)の下に隣接する画素位置をy(j+1)とする。このとき、図14に示すように、俯角(仰角)が0度の場合において、画素位置y(j)とy(j+1)で決定される1画素の角度分解能は、実空間距離での距離分解能dD(0)であるとする。一方、図15に示すように、俯角(仰角)がα度の場合において、画素位置y(j)とy(j+1)で決定される1画素の角度分解能は、実空間距離での距離分解能dD(α)であるとする。この場合、dD(α)<dD(0)が成立するので、カメラ視軸に俯角(仰角)を持たせた場合、1画素の角度分解能に対する実空間分解能が高くなる。即ち、俯角αを設けることにより、上端エッジを抽出する際の実空間分解能を高くすることが可能となる。 14 and 15, the pixel position in the visual axis direction is y (j), and the pixel position adjacent to y (j) is y (j + 1). At this time, as shown in FIG. 14, when the depression angle (elevation angle) is 0 degree, the angular resolution of one pixel determined by the pixel positions y (j) and y (j + 1) is the distance resolution in the real space distance. Let dD (0). On the other hand, as shown in FIG. 15, when the depression angle (elevation angle) is α degrees, the angular resolution of one pixel determined by the pixel positions y (j) and y (j + 1) is the distance resolution dD at the real space distance. Assume that (α). In this case, since dD (α) <dD (0) is established, when the depression angle (elevation angle) is given to the camera visual axis, the real space resolution with respect to the angular resolution of one pixel is increased. That is, by providing the depression angle α, it is possible to increase the real spatial resolution when extracting the upper edge.
このように、投光部11により投光される領域光の上端エッジは、カメラ12に対して横方向に領域が形成され、カメラ12は上端エッジ照射方向に対して鉛直な方向にオフセットして配置されると共に、上端エッジ照射方向と視軸が所定角度をなすようにすれば、一般的な広角レンズ(魚眼レンズ)を使用した際においても、三角測量の原理に基づき距離計測する際の計測精度が向上する。 As described above, the upper edge of the region light projected by the light projecting unit 11 is formed in a region lateral to the camera 12, and the camera 12 is offset in a direction perpendicular to the upper edge irradiation direction. Measurement accuracy when distance is measured based on the principle of triangulation even when a general wide-angle lens (fisheye lens) is used, as long as the top edge irradiation direction and the visual axis form a predetermined angle. Will improve.
このようにして、本実施形態に係る距離計測装置では、投光部11から検出対象領域(観測対象物Pを含む領域)に向けて、所定の変調周波数で強度変調した照射光を照射し、更に、検出対象領域で反射した反射光をカメラ12にて撮像し、撮像した画像を時系列的に画像メモリ21に記憶保存する。そして、時系列的に撮像された画像データに基づいて同期検波処理を行い、照射光に同期した画素の輝度情報を抽出する。この際、カメラ12に搭載される撮像素子の、非線形領域で検出された輝度信号は波形に歪みが発生する場合がある。 Thus, in the distance measuring device according to the present embodiment, the irradiation light whose intensity is modulated at a predetermined modulation frequency is irradiated from the light projecting unit 11 toward the detection target region (the region including the observation target P). Further, the reflected light reflected from the detection target region is captured by the camera 12, and the captured images are stored and stored in the image memory 21 in time series. Then, synchronous detection processing is performed based on image data captured in time series, and luminance information of pixels synchronized with the irradiation light is extracted. At this time, the waveform of the luminance signal detected in the nonlinear region of the image sensor mounted on the camera 12 may be distorted.
即ち、照射光の変調周期内に、カメラ12の撮像素子から出力される撮像信号の上端部(上部ピーク値)、或いは下端部(下部ピーク値)が撮像素子の輝度感度特性の線形領域の上端部以上(図8の領域P1)、或いは下端部以下(図8の領域P2)となる場合があり、このような場合には輝度信号の波形に歪みが生じてしまい、同期検波の精度が低下する。本実施形態では、線形領域部分の輝度変化を用いて非線形領域の輝度情報を補正することにより、カメラ12による撮像信号の一部に歪みが発生した状況においても、同期検波処理において高精度な同期検出を行うことができ、安定した距離計測、及び形状計測を行うことが可能となる。 That is, the upper end portion (upper peak value) or lower end portion (lower peak value) of the image pickup signal output from the image pickup device of the camera 12 is the upper end of the linear region of the luminance sensitivity characteristic of the image pickup device within the modulation period of the irradiation light. 8 or more (region P1 in FIG. 8) or below the lower end (region P2 in FIG. 8). In such a case, the luminance signal waveform is distorted, and the accuracy of synchronous detection is reduced. To do. In the present embodiment, by correcting the luminance information of the non-linear region using the luminance change of the linear region portion, high-precision synchronization is performed in the synchronous detection process even in a situation where distortion occurs in a part of the imaging signal from the camera 12. Detection can be performed, and stable distance measurement and shape measurement can be performed.
また、非線形領域の観測時間が照射光の変調周期の半分以下である場合(換言すれば、線形領域の観測時間が照射光の変調周期の半分以上である場合)に、非線形領域の出力値の補正を実施するので、同期判定において誤判定を発生することなく安定した照射光抽出を実施することができる。また、非線形領域の観測時間が照射光の変調周期の半分以下でない場合には、判定を行わず、図13のステップS21に示したように、判定不可色で表示するので、判定不可である領域を利用者に対して確実に認識させることができる。 In addition, when the observation time of the nonlinear region is less than half of the modulation period of irradiation light (in other words, when the observation time of the linear region is more than half of the modulation period of irradiation light), the output value of the nonlinear region Since the correction is performed, stable irradiation light extraction can be performed without generating an erroneous determination in the synchronization determination. In addition, when the observation time of the nonlinear region is not less than half of the modulation period of the irradiation light, the determination is not performed and the display is performed in a color that cannot be determined as illustrated in step S21 in FIG. Can be surely recognized by the user.
また、投光部11により照射される照射光の上端エッジは、カメラ12に対して横方向に領域が形成され、カメラ12は上端エッジ照射方向に対して鉛直な方向にオフセットして配置されると共に、上端エッジ照射方向とカメラ12の視軸が所定角度をなすので、一般的な広角レンズ(魚眼レンズ)を使用した際においても、三角測量の原理に基づき距離計測する際の計測精度が向上する。 Further, the upper end edge of the irradiation light emitted from the light projecting unit 11 is formed in a region in the lateral direction with respect to the camera 12, and the camera 12 is arranged offset in a direction perpendicular to the upper end edge irradiation direction. At the same time, since the upper edge irradiation direction and the visual axis of the camera 12 form a predetermined angle, even when a general wide-angle lens (fisheye lens) is used, the measurement accuracy when measuring the distance based on the principle of triangulation is improved. .
更に、投光部11に具備される発光源が、赤外光、或いは紫外光を発するようにすれば、カメラ12に特定スペクトルの光を高効率で透過するフィルタを設けることにより、照射光をより頑健に検出することが可能となる。 Further, if the light source provided in the light projecting unit 11 emits infrared light or ultraviolet light, the camera 12 is provided with a filter that transmits light of a specific spectrum with high efficiency. It becomes possible to detect more robustly.
また、投光部11、及び同期検波処理部13で用いる同期信号として、振幅変調や位相変調、周波数変調を用いることも可能であり、更に、振幅変調と位相変調の組み合わせであるBPSKなどを用いることで、頑健性を向上させることが可能である。 Further, amplitude modulation, phase modulation, and frequency modulation can be used as a synchronization signal used in the light projecting unit 11 and the synchronous detection processing unit 13, and BPSK that is a combination of amplitude modulation and phase modulation is used. Thus, it is possible to improve robustness.
次に、上述した実施形態の変形例について説明する。簡易的な方法として、観測される輝度出力値の平均処理により得られる直流オフセット成分(=A/2)を、輝度出力値内に存在する非線形領域の出力値の割合に応じて、オフセット量の補正をすることでも、同様の効果を得ることができる。 Next, a modification of the above-described embodiment will be described. As a simple method, the DC offset component (= A / 2) obtained by the average processing of the observed luminance output value is calculated according to the ratio of the output value of the nonlinear region existing in the luminance output value. The same effect can be obtained by correcting.
例えば、変調周期中のN[%]に高輝度域での非線形領域の出力値が存在すると検出された場合には、N/2[%]だけ増加したオフセット量(=(1+N/200)×A/2)に補正することで、同期検波処理において誤りを生じることなく、安定した距離計測を実施することができる。ここで、N[%]は50%以下の状態で補正を実施することで、誤同期を防ぐことができる。 For example, when it is detected that the output value of the non-linear region in the high luminance region exists in N [%] in the modulation period, the offset amount increased by N / 2 [%] (= (1 + N / 200) × By correcting to A / 2), stable distance measurement can be performed without causing an error in the synchronous detection processing. Here, by performing correction in a state where N [%] is 50% or less, erroneous synchronization can be prevented.
以上、本発明の距離計測装置を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。 The distance measuring device of the present invention has been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit is replaced with an arbitrary configuration having the same function. Can do.
本発明は、撮像素子の非線形領域での輝度出力値を補正して高精度な距離計測に利用することができる。 The present invention can be used for highly accurate distance measurement by correcting the luminance output value in the nonlinear region of the image sensor.
11 投光部
12 カメラ
13 同期検波処理部
14 投光制御部
15 上端エッジ検出部
16 距離算出部
21 画像メモリ
22 オフセット補正演算部
23 直流成分除去処理部
24 波形乗算部
25 同期検波判定部
31 切替部
100 距離計測装置
P 観測対象物
DESCRIPTION OF SYMBOLS 11 Light projection part 12 Camera 13 Synchronous detection process part 14 Light projection control part 15 Upper end edge detection part 16 Distance calculation part 21 Image memory 22 Offset correction calculation part 23 DC component removal process part 24 Waveform multiplication part 25 Synchronous detection determination part 31 Switching Part 100 Distance measuring device P Observation target
Claims (6)
前記移動体に搭載され、前記照射光が照射された対象物を撮像する撮像手段と、
前記撮像手段の撮像のタイミングに合わせて前記投光手段より照射する照射光の発光強度を制御する投光制御手段と、
前記撮像手段にて撮像された画像から、前記照射光の発光の強度変調と同期して輝度変動する領域を、同期検波領域として抽出する同期検波処理手段と、
前記同期検波領域のエッジ部を検出するエッジ部検出手段と、
前記エッジ部検出手段にて検出されたエッジ部に基づいて、前記対象物までの距離を算出する距離算出手段と、を有し、
前記同期検波手段は、前記撮像手段で撮像された画像の輝度出力値が、該撮像手段の輝度感度特性が非線形領域で検出された場合には、この輝度出力値を前記撮像手段の輝度感度特性が線形領域で検出された輝度出力値を用いて補正すること
を特徴とする距離計測装置。
A light projecting means mounted on a moving body and radiating irradiation light having a light emitting region in the horizontal direction and intensity-modulated;
Imaging means mounted on the moving body and imaging the object irradiated with the irradiation light;
A light projection control means for controlling the light emission intensity of the irradiation light emitted from the light projection means in accordance with the timing of the image pickup by the image pickup means;
Synchronous detection processing means for extracting, as a synchronous detection area, a region whose luminance fluctuates in synchronization with the intensity modulation of the emitted light from the image captured by the imaging means,
Edge detection means for detecting an edge of the synchronous detection region;
Distance calculating means for calculating a distance to the object based on the edge portion detected by the edge portion detecting means;
It said synchronous detection means, the luminance output values of the image captured by the imaging means, when the luminance sensitivity characteristic of the image pickup means is detected by the non-linear region, the luminance sensitivity characteristic of the imaging means the luminance output value Is corrected using a luminance output value detected in a linear region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012045235A JP6019621B2 (en) | 2012-03-01 | 2012-03-01 | Distance measuring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012045235A JP6019621B2 (en) | 2012-03-01 | 2012-03-01 | Distance measuring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013181806A JP2013181806A (en) | 2013-09-12 |
JP6019621B2 true JP6019621B2 (en) | 2016-11-02 |
Family
ID=49272565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012045235A Expired - Fee Related JP6019621B2 (en) | 2012-03-01 | 2012-03-01 | Distance measuring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6019621B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6269380B2 (en) * | 2014-08-06 | 2018-01-31 | マツダ株式会社 | Vehicle distance measuring device |
EP3998767B1 (en) * | 2019-07-12 | 2023-10-11 | Koito Manufacturing Co., Ltd. | Imaging device, lighting device for same, vehicle, and lamp fitting for vehicle |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4442539B2 (en) * | 2005-09-27 | 2010-03-31 | パナソニック電工株式会社 | Spatial information detection device |
JP2008051759A (en) * | 2006-08-28 | 2008-03-06 | Nissan Motor Co Ltd | Device and method for measuring distance |
JP5190663B2 (en) * | 2007-03-27 | 2013-04-24 | スタンレー電気株式会社 | Distance image generator |
-
2012
- 2012-03-01 JP JP2012045235A patent/JP6019621B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013181806A (en) | 2013-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5800082B2 (en) | Distance measuring device and distance measuring method | |
JP4830871B2 (en) | 3D shape measuring apparatus and 3D shape measuring method | |
US20100128231A1 (en) | Projection-type display apparatus and method for performing projection adjustment | |
KR102460659B1 (en) | Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor | |
JP2010071976A (en) | Distance estimation device, distance estimation method, program, integrated circuit, and camera | |
EP3594617B1 (en) | Three-dimensional-shape measurement device, three-dimensional-shape measurement method, and program | |
KR20090087638A (en) | Apparatus and method for matching color image and depth image | |
US11948286B2 (en) | Dark image enhancement | |
JP2010175435A (en) | Three-dimensional information detecting apparatus and three-dimensional information detecting method | |
JP6553412B2 (en) | Inspection system | |
CN104697469A (en) | High-dynamic three-dimensional measurement method capable of judging saturation by use of harmonic amplitudes | |
WO2018159825A1 (en) | Inspection system and inspection method | |
WO2017056776A1 (en) | Projector device equipped with distance image acquisition device and projection method | |
JP2016223911A (en) | Inspection system | |
JP6019621B2 (en) | Distance measuring device | |
JP6477348B2 (en) | Self-position estimation apparatus and self-position estimation method | |
JP2014070936A (en) | Error pixel detecting apparatus, error pixel detecting method, and error pixel detecting program | |
JP2014178245A (en) | Distance measuring apparatus | |
JP2020193957A (en) | Distance image generator which corrects abnormal distance measurement | |
JP5978866B2 (en) | Image capturing apparatus and image processing method for image capturing apparatus | |
JP2018028527A (en) | Inspection system | |
JP5751416B2 (en) | Distance measuring device | |
JP2017191082A (en) | Bright-spot image acquisition apparatus and bright-spot image acquisition method | |
JP6236955B2 (en) | Distance measuring device | |
JP5939422B2 (en) | Distance measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160919 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6019621 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |