JP2013044690A - Distance measuring equipment - Google Patents

Distance measuring equipment Download PDF

Info

Publication number
JP2013044690A
JP2013044690A JP2011184313A JP2011184313A JP2013044690A JP 2013044690 A JP2013044690 A JP 2013044690A JP 2011184313 A JP2011184313 A JP 2011184313A JP 2011184313 A JP2011184313 A JP 2011184313A JP 2013044690 A JP2013044690 A JP 2013044690A
Authority
JP
Japan
Prior art keywords
distance
light
measurement
measurement distance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011184313A
Other languages
Japanese (ja)
Inventor
Takahiko Oki
孝彦 沖
Toshiyuki Ando
敏之 安藤
Shogo Watanabe
省吾 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2011184313A priority Critical patent/JP2013044690A/en
Publication of JP2013044690A publication Critical patent/JP2013044690A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide distance measuring equipment that measures a distance to a target with high accuracy even if the distance between a vehicle and the target changes.SOLUTION: A light projection part 11 projects temporally modulated region light having a horizontally spreading light-emitting region and horizontal straight upper and lower end sections. A camera 12 images the region light reflected by a target, to extract upper and lower edges from the captured image and to determine first and second measurement distances on the basis of the upper and lower edges, according to the triangulation principle. When the target moves away from the vehicle, the second measurement distance is selected. When the target approaches the vehicle, the first measurement distance is selected. Even if the distance to the target changes, distance measurement accuracy can be improved.

Description

本発明は、車両等の移動体に設けられ、該移動体の周囲に存在する対象物までの距離を測定する距離測定装置に関する。   The present invention relates to a distance measuring device that is provided in a moving body such as a vehicle and measures a distance to an object existing around the moving body.

車両等の移動体の周辺に存在する対象物までの距離を測定する距離測定装置として、例えば、特開2008−157718号公報(特許文献1)に記載されたものが知られている。該特許文献1では、基線長を有する一対の発光素子、及び受光素子を有し、測定対象物までの距離、及び方向を三角測量方式により検出する。また、トロイダルレンズにより集光されたシートビームを複数回パルス発光させ、発光のタイミングに同期して受光素子から受光位置を抽出し、シートビームの照射方向と反射光の受光素子への入射方向、及び発光素子と受光素子の基線長に基づいて対象までの距離を測定する。   As a distance measuring device for measuring a distance to an object existing around a moving body such as a vehicle, for example, a device described in Japanese Patent Application Laid-Open No. 2008-157718 (Patent Document 1) is known. In this patent document 1, it has a pair of light emitting element and light receiving element which have base line length, and detects the distance and direction to a measuring object by a triangulation method. In addition, the sheet beam collected by the toroidal lens is pulse-emitted multiple times, the light receiving position is extracted from the light receiving element in synchronization with the light emission timing, the irradiation direction of the sheet beam and the incident direction of the reflected light to the light receiving element, The distance to the object is measured based on the base line length of the light emitting element and the light receiving element.

特開2008−157718号公報JP 2008-157718 A

しかしながら、上述の特許文献1に記載された従来技術では、測定対象物と光学デバイスとの間の距離の変化しない場合の距離測定について示されており、車両等の移動体にこの光学デバイスを搭載する場合には、複数のパルス光が出射される間に、測定対象物と光学デバイスとの間の距離の変化が発生することがある。このため、測定対象物に投光したパルス光を高精度に抽出できず、正確な距離が測れないという問題が発生する。   However, in the prior art described in Patent Document 1 described above, distance measurement is performed when the distance between the measurement target and the optical device does not change, and this optical device is mounted on a moving body such as a vehicle. In this case, a change in the distance between the measurement object and the optical device may occur while a plurality of pulse lights are emitted. For this reason, there is a problem that the pulsed light projected onto the measurement object cannot be extracted with high accuracy and the accurate distance cannot be measured.

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、移動体と測定対象物との間の距離が変化する場合であっても、測定対象物までの距離を高精度に測定することが可能な距離測定装置を提供することにある。   The present invention has been made to solve such a conventional problem, and the object of the present invention is to measure the object even when the distance between the moving object and the object to be measured changes. An object of the present invention is to provide a distance measuring device capable of measuring a distance to an object with high accuracy.

上記目的を達成するため、本発明に係る距離測定装置は、移動体の周囲に水平方向に広がる発光領域を有し、且つ、上端部、及び下端部が水平となる直線状の端部を有する時間変調したパルス光を投光する投光手段と、投光手段により投光され対象物にて反射したパルス光を撮像する撮像手段とを有する。また、撮像手段により撮像された画像からパルス光を抽出する検波手段と、投光手段による投光、撮像手段による撮像、及び検波手段による検波を制御する制御手段と、検波手段により検出されるパルス光のエッジを検出するエッジ検出手段、及びエッジ検出手段により検出されるエッジの画像位置に基づいて、対象物との間の距離を算出する距離算出手段を有する。   In order to achieve the above object, a distance measuring device according to the present invention has a light emitting region that extends in the horizontal direction around a moving body, and has a linear end portion in which an upper end portion and a lower end portion are horizontal. Projection means for projecting time-modulated pulse light, and imaging means for imaging the pulse light projected by the light projection means and reflected by the object. In addition, a detection unit that extracts pulsed light from an image captured by the imaging unit, a control unit that controls light projection by the light projection unit, imaging by the imaging unit, and detection by the detection unit, and a pulse detected by the detection unit An edge detection unit that detects an edge of light and a distance calculation unit that calculates a distance to the object based on an image position of the edge detected by the edge detection unit.

そして、エッジ検出手段は、パルス光の上端エッジを検出する上端エッジ検出部、及び下端エッジを検出する下端エッジ検出部を含み、距離算出手段は、上端エッジ検出部で検出される上端エッジに基づいて、対象物までの距離を第1測定距離として算出する第1距離算出部、及び下端エッジ検出部で検出される下端エッジに基づいて、対象物までの距離を第2測定距離として算出する第2距離算出部を含む。   The edge detection means includes an upper edge detection section that detects the upper edge of the pulsed light and a lower edge detection section that detects the lower edge, and the distance calculation means is based on the upper edge detected by the upper edge detection section. And calculating a distance to the object as the second measurement distance based on the first distance calculation unit that calculates the distance to the object as the first measurement distance and the lower edge detected by the lower edge detection unit. Includes a 2-distance calculator.

更に、第1測定距離の時間変化及び前記第2測定距離の時間変化をそれぞれ算出し、その算出結果と前記第1測定距離と前記第2測定距離との大きさの比較結果に基づいて、第1測定距離、或いは第2測定距離のうち、いずれか一方を選択する距離選択手段を備える。   Further, the time change of the first measurement distance and the time change of the second measurement distance are calculated, respectively, and based on the comparison result of the calculation result and the magnitude of the first measurement distance and the second measurement distance, Distance selection means for selecting one of the one measurement distance or the second measurement distance is provided.

本発明に係る距離測定装置は、第1測定距離及び第2測定距離のうちのいずれか一方を選択して測定距離とするので、移動体と測定対象物との間の距離が変化する場合であっても、測定対象物までの距離を高精度に測定することが可能となる。   Since the distance measuring device according to the present invention selects one of the first measuring distance and the second measuring distance as the measuring distance, the distance between the moving body and the measuring object changes. Even if it exists, it becomes possible to measure the distance to a measuring object with high precision.

本発明の第1実施形態に係る距離測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the distance measuring device which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る距離測定装置で用いられる同期検波処理部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the synchronous detection process part used with the distance measuring device which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る距離測定装置で用いられる同期検波処理部における各信号の変化を示すタイミングチャートである。It is a timing chart which shows change of each signal in a synchronous detection processing part used with a distance measuring device concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る距離測定装置により測定対象物までの距離を測定する様子を示す説明図である。It is explanatory drawing which shows a mode that the distance to a measuring object is measured with the distance measuring device which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る距離測定装置のカメラで撮像された画像を示す説明図である。It is explanatory drawing which shows the image imaged with the camera of the distance measuring device which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る距離測定装置により、測定対象物までの距離を測定する原理を示す説明図である。It is explanatory drawing which shows the principle which measures the distance to a measuring object with the distance measuring device which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る距離測定装置により、車両に対して離隔している測定対象物を撮像した画像を示す説明図である。It is explanatory drawing which shows the image which imaged the measuring object currently spaced apart with respect to the vehicle by the distance measuring device which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る距離測定装置により、車両に対して接近している測定対象物を撮像した画像を示す説明図である。It is explanatory drawing which shows the image which imaged the measuring object which has approached with respect to the vehicle by the distance measuring device which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る距離測定装置による距離測定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the distance measurement process by the distance measuring device which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る距離測定装置による同期検波処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the synchronous detection process by the distance measuring device which concerns on 1st Embodiment of this invention. 本発明の実施形態に係る距離測定装置によるカメラの俯角が0°の場合の、距離分解能を示す説明図である。It is explanatory drawing which shows distance resolution in case the depression angle of the camera by the distance measuring device which concerns on embodiment of this invention is 0 degree. 本発明の実施形態に係る距離測定装置によるカメラの俯角がα°の場合の、距離分解能を示す説明図である。It is explanatory drawing which shows distance resolution in case the depression angle of the camera by the distance measuring device which concerns on embodiment of this invention is (alpha) degrees. 本発明の第2実施形態に係る距離測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the distance measuring device which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る距離測定装置により測定対象物までの距離を測定する様子を示す説明図である。It is explanatory drawing which shows a mode that the distance to a measuring object is measured with the distance measuring device which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る距離測定装置のカメラで撮像された画像を示す説明図である。It is explanatory drawing which shows the image imaged with the camera of the distance measuring device which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る距離測定装置で用いられる同期検波処理部における各信号の変化を示すタイミングチャートである。It is a timing chart which shows change of each signal in a synchronous detection processing part used with a distance measuring device concerning a 2nd embodiment of the present invention.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態の説明]
図1は、本発明の第1実施形態に係る距離測定装置100の構成を示すブロック図である。図1に示すように、該距離測定装置100は、車両等の移動体に搭載されるものであり、車両周囲の距離測定の対象となる測定対象物に向けて領域光を照射する投光部(投光手段)11と、領域光が照射された測定対象物の映像を撮像するカメラ(撮像手段)12と、投光部11による領域光の照射を制御する投光制御部(制御手段)13と、カメラ12で撮像された画像信号に対して同期検波処理を加える同期検波処理部(検波手段)14と、同期検波された画像から測定対象物の上端エッジ(詳細は後述)を検出する上端エッジ検出部15と、同期検波された画像から測定対象物の下端エッジ(詳細は後述)を検出する下端エッジ検出部16と、上端エッジ検出部15で検出された上端エッジに基づいて車両から測定対象物までの距離を算出する第1距離算出部17aと、下端エッジ検出部16で検出された下端エッジに基づいて車両から測定対象物までの距離を算出する第2距離算出部17bと、第1距離算出部17a及び第2距離算出部17bのいずれか一方で算出された距離を選択する距離選択部18と、を備えている。
[Description of First Embodiment]
FIG. 1 is a block diagram showing a configuration of a distance measuring apparatus 100 according to the first embodiment of the present invention. As shown in FIG. 1, the distance measuring device 100 is mounted on a moving body such as a vehicle, and projects a region light toward a measurement target that is a target for distance measurement around the vehicle. (Light projecting means) 11, a camera (imaging means) 12 that captures an image of a measurement object irradiated with area light, and a light projection control section (control means) that controls irradiation of area light by the light projecting section 11. 13, a synchronous detection processing unit (detection means) 14 for performing synchronous detection processing on the image signal captured by the camera 12, and an upper edge (details will be described later) of the measurement object are detected from the synchronously detected image. From the vehicle, based on the upper edge detection unit 15, the lower edge detection unit 16 that detects the lower edge (details will be described later) of the measurement object from the synchronously detected image, and the upper edge detected by the upper edge detection unit 15. The distance to the measurement object A first distance calculation unit 17a to be output; a second distance calculation unit 17b that calculates a distance from the vehicle to the measurement object based on the lower edge detected by the lower edge detection unit 16; a first distance calculation unit 17a; A distance selection unit 18 that selects a distance calculated by any one of the second distance calculation units 17b.

投光部11は、例えば、プロジェクタヘッドライトやリフレクタを備えたヘッドライトであり、水平方向に広がる発光領域を形成する配光特性を有する領域光(パルス光)を照射する。この水平方向に形成された領域光は、時間変調されて測定対象物に照射され、該測定対象物上に照射領域と非照射領域の輝度境界(上側、下側の双方の輝度境界)を鮮明に映し出す配光を実現する。例えば、図5に示す符号Y1,Y2で示す輝度境界を有する配光特性を有する。また、該投光部11は、可視光、赤外光、及び紫外光のうちのいずれか、或いはその組み合わせの光を照射する。   The light projecting unit 11 is, for example, a headlight including a projector headlight or a reflector, and irradiates area light (pulse light) having a light distribution characteristic that forms a light emitting area extending in the horizontal direction. The area light formed in the horizontal direction is time-modulated and irradiated onto the measurement object, and the luminance boundary between the irradiation area and the non-irradiation area (both upper and lower luminance boundaries) is sharply defined on the measurement object. Realize the light distribution projected on the screen. For example, it has the light distribution characteristic which has the brightness | luminance boundary shown with the code | symbol Y1, Y2 shown in FIG. Further, the light projecting unit 11 emits light of any one of visible light, infrared light, and ultraviolet light, or a combination thereof.

カメラ12は、例えば、CDDやCMOS等の撮像素子を備えており、車両周囲の各種画像を撮像すると共に、投光部11より照射された領域光の、測定対象物による反射光を受光する。また、該カメラ12は、投光部11より投光される可視光、赤外光、及び紫外光のうちのいずれか、或いはその組み合わせの光に検出の感度を有している。   The camera 12 includes, for example, an image sensor such as a CDD or a CMOS, and captures various images around the vehicle and receives reflected light from the measurement object of the region light emitted from the light projecting unit 11. In addition, the camera 12 has detection sensitivity for light of any one of visible light, infrared light, and ultraviolet light projected from the light projecting unit 11 or a combination thereof.

投光制御部13は、投光部11がパルス点灯する際の点灯、及び消灯時間の長さを制御(PWM変調制御)すると共に、カメラ12に撮像タイミングを示す信号を出力し、同期検波処理部14に投光部11より投光されたパルス光に同期して撮像された画像からパルス光を抽出するために必要な搬送波(sin(2πfct))を出力する。   The light projecting control unit 13 controls the length of lighting and extinguishing time when the light projecting unit 11 is turned on (PWM modulation control), and outputs a signal indicating the imaging timing to the camera 12 to perform synchronous detection processing. A carrier wave (sin (2πfct)) necessary for extracting pulsed light from an image captured in synchronization with the pulsed light projected from the light projecting unit 11 is output to the unit 14.

同期検波処理部14は、カメラ12より時系列的に取得される複数の画像を用い、画像中の全画素、或いは画像中に処理領域を制限した場合は、この処理領域中の全画素において、投光部11より照射される領域光の、光パルスに同期した光のみを抽出する。即ち、オン(点灯)、オフ(消灯)を繰り返す領域光の、オン時における光のみを抽出する。   The synchronous detection processing unit 14 uses a plurality of images acquired in time series from the camera 12, and when all the pixels in the image or the processing area is limited in the image, in all the pixels in the processing area, Of the region light emitted from the light projecting unit 11, only the light synchronized with the light pulse is extracted. That is, only the light at the time of on is extracted from the region light that repeatedly turns on (lights on) and off (lights off).

上端エッジ検出部15は、同期検波処理部14により抽出された領域光抽出画像に基づき、領域光の上端エッジを検出する。具体的には、図5に示すように測定対象物31に領域光が照射された場合に、該測定対象物31上の領域光の上側となる境界線となるエッジr1を上端エッジとして検出する。   The upper edge detection unit 15 detects the upper edge of the region light based on the region light extraction image extracted by the synchronous detection processing unit 14. Specifically, as shown in FIG. 5, when the measurement object 31 is irradiated with area light, the edge r <b> 1 serving as a boundary line above the area light on the measurement object 31 is detected as the upper edge. .

下端エッジ検出部16は、同期検波処理部14により抽出された領域光抽出画像に基づき、領域光の下端エッジを検出する。具体的には、図5に示すように測定対象物31に領域光が照射された場合に、該測定対象物31上の領域光の下側となる境界線となるエッジr2を下端エッジとして検出する。上端エッジ及び下端エッジの詳細については後述する。   The lower edge detection unit 16 detects the lower edge of the region light based on the region light extraction image extracted by the synchronous detection processing unit 14. Specifically, as shown in FIG. 5, when the measurement object 31 is irradiated with area light, the edge r <b> 2 that is the lower boundary line of the area light on the measurement object 31 is detected as the lower edge. To do. Details of the upper edge and the lower edge will be described later.

第1距離算出部17aは、上端エッジ検出部15にて検出された上端エッジの画像に基づき三角測量の原理を用いて、領域光の上端エッジの照射方向と、カメラ12の視軸がなす角度、及びレイアウトに基づいて、測定対象物31までの距離を第1測定距離として算出する。また、第2距離算出部17bは、下端エッジ検出部16にて検出された下端エッジの画像に基づき三角測量の原理を用いて、領域光の下端エッジの照射方向と、カメラ12の視軸がなす角度、及びレイアウトに基づいて、測定対象物までの距離を第2測定距離として算出する。詳細な算出手順については後述する。   The first distance calculation unit 17 a uses the triangulation principle based on the image of the upper edge detected by the upper edge detection unit 15, and the angle formed by the irradiation direction of the upper edge of the region light and the visual axis of the camera 12. Based on the layout, the distance to the measurement object 31 is calculated as the first measurement distance. Further, the second distance calculation unit 17b uses the triangulation principle based on the image of the lower edge detected by the lower edge detection unit 16, and the irradiation direction of the lower edge of the area light and the visual axis of the camera 12 are determined. Based on the angle formed and the layout, the distance to the measurement object is calculated as the second measurement distance. A detailed calculation procedure will be described later.

距離選択部18は、第1距離算出部17aで算出された第1測定距離と、第2距離算出部17bで算出された第2測定距離を取得し、それぞれの測定距離の時間変化(例えば、一定時間内に変化する距離の大きさ)に応じて、自車両に対して測定対象物31が接近する場合には第1測定距離を選択し、測定対象物が離隔する場合には第2測定距離を選択する。このような選択処理により、時間遅れの無い正確な距離を取得でき、選択した距離を後段側のシステム(図示省略)に出力する。   The distance selection unit 18 acquires the first measurement distance calculated by the first distance calculation unit 17a and the second measurement distance calculated by the second distance calculation unit 17b, and changes with time of each measurement distance (for example, The first measurement distance is selected when the measurement object 31 approaches the host vehicle, and the second measurement is performed when the measurement object is separated. Select a distance. By such a selection process, an accurate distance without a time delay can be acquired, and the selected distance is output to a downstream system (not shown).

次に、同期検波処理部14における同期検波の基本原理を、図2に示すブロック図、及び図3に示すタイミングチャートを参照して説明する。照射した領域光のみを頑健に検出する処理として、一般的に同期検波が用いられる。本実施形態では、カメラ12により撮像された画像の全画素、或いは処理領域として設定された画像領域中の全画素について、この同期検波処理を施し、各画素にて照射光の抽出を行う。ここでは、同期検波として、BPSK(Binary Phase Shift Keying:二位相偏移変調)を用いた場合の例を図2、図3を参照して説明する。   Next, the basic principle of synchronous detection in the synchronous detection processing unit 14 will be described with reference to the block diagram shown in FIG. 2 and the timing chart shown in FIG. In general, synchronous detection is used as a process for robustly detecting only the irradiated region light. In the present embodiment, this synchronous detection processing is performed on all the pixels of the image captured by the camera 12 or all the pixels in the image region set as the processing region, and the irradiation light is extracted at each pixel. Here, an example in which BPSK (Binary Phase Shift Keying) is used as the synchronous detection will be described with reference to FIGS.

図2に示すように、送信信号をバイナリ信号とし、S(t)(tは時間)で示す。このバイナリ信号S(t)は、例えば、図3(a)に示すように、一定の時間間隔で「1」、「0」で変化する。このバイナリ信号S(t)を送出する際に、バイナリ信号S(t)に対して十分高い周波数fcを有する搬送波sin(2πfct)をバイナリ信号S(t)で位相変調して、BPSK送信信号を生成する。その結果、図3(b)に示す如くの波形が生成され、投光される(図2の符号q1参照)。上記の搬送波としては一般的には正弦波が用いられ、送出されるBPSK変調信号は、次の(1)式で示される。   As shown in FIG. 2, the transmission signal is a binary signal, and is represented by S (t) (t is time). For example, as shown in FIG. 3A, the binary signal S (t) changes between “1” and “0” at regular time intervals. When transmitting the binary signal S (t), the carrier wave sin (2πfct) having a sufficiently high frequency fc with respect to the binary signal S (t) is phase-modulated with the binary signal S (t), and the BPSK transmission signal is obtained. Generate. As a result, a waveform as shown in FIG. 3B is generated and projected (see symbol q1 in FIG. 2). A sine wave is generally used as the carrier wave, and the transmitted BPSK modulation signal is expressed by the following equation (1).

sin(2πfct+(S(t)−1)×π)
=(2×S(t)−1)×sin(2πfct) …(1)
従って、送信信号S(t)は、図3(b)に示すように変化する。投光部11からは、このBPSK変調信号をDCオフセットさせた信号で強度変調したパルス光を送出している。
sin (2πfct + (S (t) −1) × π)
= (2 × S (t) −1) × sin (2πfct) (1)
Accordingly, the transmission signal S (t) changes as shown in FIG. The light projecting unit 11 sends out pulse light whose intensity is modulated with a signal obtained by DC offset of the BPSK modulated signal.

送出されたパルス光は、測定対象物に照射されて反射し、カメラ12で受光される(符号q2参照)。カメラ12により撮像された画像の各画素に搬送波が重畳され(符号q3参照)、図3(c)に示す如くの時系列信号が得られる。その後、低域通過フィルタ(LPF)により時系列信号の高周波成分が除去され、高周波成分の除去後の時系列信号について正負の符号判定を行うことにより、図3(d)に示す如くの復調した送信信号S(t)を得る。   The transmitted pulsed light is applied to the object to be measured, reflected, and received by the camera 12 (see symbol q2). A carrier wave is superimposed on each pixel of the image captured by the camera 12 (see q3), and a time-series signal as shown in FIG. 3C is obtained. Thereafter, the high-frequency component of the time-series signal is removed by the low-pass filter (LPF), and the time-series signal after the removal of the high-frequency component is subjected to positive / negative sign determination, thereby demodulating as shown in FIG. A transmission signal S (t) is obtained.

受信側で、このBPSK変調信号を受信し、この受信信号からS(t)を復調する処理を同期検波と称し、処理の内容を数式で記述すると、以下に示す通りとなる。   The process of receiving this BPSK modulated signal on the receiving side and demodulating S (t) from this received signal is called synchronous detection, and the contents of the process are described by mathematical expressions as follows.

まず、次の(2)式に示すように、受信信号に搬送波であるsin(2πfct)を乗算する。   First, as shown in the following equation (2), the received signal is multiplied by a carrier wave sin (2πfct).

sin(2πfct+(S(t)−1)π)×sin(2πfct) …(2)
次いで、三角関数の積和公式より、(2)式を次の(3)式とする(図3(c)参照)。
sin (2πfct + (S (t) −1) π) × sin (2πfct) (2)
Next, from the product-sum formula of the trigonometric function, formula (2) is changed to the following formula (3) (see FIG. 3C).

−(cos(4πfct+(S(t)−1)π)−cos((S(t)−1)π))/2 …(3)
そして、低域通過フィルタ(LPF)を用いて、(3)式の第1項の周波数2fcの高周波成分を除去すると、第2項が残るので、受信信号は次の(4)式に示すように復調されることとなる。
− (Cos (4πfct + (S (t) −1) π) −cos ((S (t) −1) π)) / 2 (3)
Then, when the high frequency component of the frequency 2fc of the first term in the equation (3) is removed using a low-pass filter (LPF), the second term remains, so that the received signal is expressed by the following equation (4). Will be demodulated.

cos((S(t)−1)π)/2 …(4)
この復調信号の符合は、送信信号であるS(t)の「1」、「0」に同期しており、正負判定をすることにより、送信信号S(t)が復調できることがわかる(図3(d)参照)。
cos ((S (t) -1) π) / 2 (4)
The sign of this demodulated signal is synchronized with “1” and “0” of S (t), which is the transmission signal, and it can be seen that the transmission signal S (t) can be demodulated by making a positive / negative determination (FIG. 3). (See (d)).

なお、上記では搬送波sin(2πfct)をバイナリ信号S(t)で位相変調する例について説明したが、振幅変調、周波数変調等の他の変調方式を用いることも可能である。   In the above description, an example in which the carrier wave sin (2πfct) is phase-modulated with the binary signal S (t) has been described. However, other modulation methods such as amplitude modulation and frequency modulation may be used.

次に、投光部11より投光される領域光の投光パターンについて、図4,図5を参照して説明する。上述したように、車両Qに搭載される投光部11は、投光領域の上端部、及び下端部に明暗が鮮明な水平パターンを有し、且つオン、オフが切り替えられる領域光を投光する。以下、この領域光の配光パターンについて説明する。図4は、車両Qに搭載される投光部11より、測定対象物31に向けて領域光を照射する様子を示す説明図であり、図5は、領域光を測定対象物31に照射した際の、カメラ12により撮像された画像を示す説明図である。   Next, the projection pattern of the area light projected from the light projecting unit 11 will be described with reference to FIGS. As described above, the light projecting unit 11 mounted on the vehicle Q projects the region light that has a bright and dark horizontal pattern at the upper end and lower end of the light projecting region and can be switched on and off. To do. Hereinafter, the light distribution pattern of the region light will be described. FIG. 4 is an explanatory diagram showing a state in which the area light is irradiated toward the measurement target 31 from the light projecting unit 11 mounted on the vehicle Q, and FIG. It is explanatory drawing which shows the image imaged with the camera 12 at the time.

三角測量の原理を用いて距離の測定を行う際に、測定検出の頑健性を確保するために同期検波を用いた場合に、周知の技術であるスリット状の光を照射する手法では、測定対象物31との間の相対距離が変化すると、画像中における照射光位置にずれが生じてしまうので、同期検波による照射光の抽出ができないという問題がある。   When measuring distance using the principle of triangulation, when using synchronous detection to ensure the robustness of measurement detection, the technique of irradiating slit-shaped light, which is a well-known technique, is the measurement target. When the relative distance between the object 31 and the object 31 is changed, the irradiation light position in the image is shifted, so that there is a problem that the irradiation light cannot be extracted by synchronous detection.

本実施形態では、スリット状の照射光の代用として、明暗が鮮明なパターン光を水平方向に有する領域光を用いることにより、車両Qと測定対象物31との間の相対的な距離が変化した場合においても、同期検波による領域光の抽出を継続することが可能となる。この際、同期検波処理した領域光の上端エッジのみを用いて距離を測定すると、車両Qと測定対象物31との間の距離が大きくなる(測定対象物31が相対的に遠ざかる)状況下において、検波開始時における同期検波領域の上端エッジに対して、最新の領域光の上端エッジが変化してしまう。このため、検波開始時の画像フレームで抽出される上端エッジを用いて距離を算出することとなり、算出される距離は同期検波処理時間分の遅延が生じてしまうという問題が生じる。具体的には、後述する図7に示すように、同図(a)の1フレーム目の画像で抽出される上端エッジと、同図(b)のnフレーム目の画像で抽出される上端エッジは異なるので、距離の測定精度が低下する場合が生じる。   In the present embodiment, the relative distance between the vehicle Q and the measurement object 31 is changed by using the region light having the bright and dark pattern light in the horizontal direction as a substitute for the slit-shaped irradiation light. Even in this case, it is possible to continue the extraction of the region light by the synchronous detection. At this time, when the distance is measured using only the upper edge of the region light subjected to the synchronous detection processing, the distance between the vehicle Q and the measurement target 31 is large (the measurement target 31 is relatively far away). The upper edge of the latest region light changes with respect to the upper edge of the synchronous detection region at the start of detection. For this reason, the distance is calculated using the upper edge extracted in the image frame at the start of detection, and the calculated distance causes a problem that a delay corresponding to the synchronous detection processing time occurs. Specifically, as shown in FIG. 7 to be described later, the upper edge extracted from the first frame image in FIG. 5A and the upper edge extracted from the n frame image in FIG. Since the distances are different, the measurement accuracy of the distance may be reduced.

そこで、本実施形態では、上端エッジに加え、下端エッジを用いることにより、上記の問題を解決する。図4に示すように、投光部11より、上部及び下部に明暗が生成されるパターンを有する領域光が車両Qの周囲に向けて投光され、この領域光が測定対象物31に照射される。   Therefore, in the present embodiment, the above problem is solved by using the lower edge in addition to the upper edge. As shown in FIG. 4, area light having a pattern in which light and darkness is generated at the upper and lower parts is projected toward the periphery of the vehicle Q from the light projecting unit 11, and the measurement object 31 is irradiated with the area light. The

そして、カメラ12では、測定対象物31にて反射した領域光を受光することにより、図5に示す如くの上端エッジr1、及び下端エッジr2が写された画像が取得される。本実施形態では、上端エッジr1に基づく距離測定、及び下端エッジr2に基づく距離測定を行い、測定対象物31と車両Qとの間の距離変化に応じて、いずれか一方の距離測定により測定された距離を選択することにより、測定距離の時間遅延を防止することが可能となる。   Then, the camera 12 receives the region light reflected by the measurement object 31, thereby obtaining an image in which the upper edge r1 and the lower edge r2 are copied as shown in FIG. In the present embodiment, the distance measurement based on the upper edge r1 and the distance measurement based on the lower edge r2 are performed, and the distance is measured by either distance measurement according to the distance change between the measurement object 31 and the vehicle Q. By selecting a different distance, it is possible to prevent a time delay of the measurement distance.

次に、領域光の上端エッジ、及び下端エッジを用いて、測定対象物31までの距離を算出する原理について、図6に示す模式図を参照して説明する。図6に示すように、投光部11より照射される領域光の広がり方向(横方向)とは垂直な方向(縦方向)にオフセットした位置に、カメラ12が配置される。投光部11から投光される領域光が測定対象物31に照射され、カメラ12では、測定対象物31の表面で反射した領域光を撮像する。   Next, the principle of calculating the distance to the measurement object 31 using the upper edge and the lower edge of the area light will be described with reference to the schematic diagram shown in FIG. As shown in FIG. 6, the camera 12 is arranged at a position offset in a direction (vertical direction) perpendicular to the spreading direction (horizontal direction) of the region light irradiated from the light projecting unit 11. The area light projected from the light projecting unit 11 is irradiated onto the measurement object 31, and the camera 12 images the area light reflected on the surface of the measurement object 31.

ここで、投光部11より投光される領域光の上端部を水平(上下角0°)方向とし、下端部を下方角度θの方向とし、投光部11から上方に距離Dy、後方に距離Dzだけオフセットした位置にカメラ12を設置し、該カメラ12を下方角度αの方向に向けて測定対象物31を撮像する。測定対象物31に照射される上端エッジが見える方向の角度βと、下端エッジが見える角度γが測定値となり、測定対象物31までの距離Zは、下記(5)、(6)式によりそれぞれ独立して算出することができる。   Here, the upper end portion of the region light projected from the light projecting unit 11 is the horizontal (up and down angle 0 °) direction, the lower end portion is the direction of the downward angle θ, the distance Dy upward from the light projecting unit 11, and the rear The camera 12 is installed at a position offset by the distance Dz, and the measurement object 31 is imaged with the camera 12 directed toward the downward angle α. The angle β in the direction in which the top edge irradiated to the measurement object 31 can be seen and the angle γ in which the bottom edge can be seen become measurement values, and the distance Z to the measurement object 31 is expressed by the following equations (5) and (6) respectively. It can be calculated independently.

Z=Dy/tan(α+β) …(5)
Z=(Dy+Dz・tanθ)/(tan(α+γ)−tanθ) …(6)
つまり、図5に示した上端エッジr1を用いる場合には、(5)式により距離Z(第1測定距離)を算出することができ、上端エッジr2を用いる場合には、(6)式により距離Z(第2測定距離)を算出することができる。
Z = Dy / tan (α + β) (5)
Z = (Dy + Dz · tan θ) / (tan (α + γ) −tan θ) (6)
That is, when the upper edge r1 shown in FIG. 5 is used, the distance Z (first measurement distance) can be calculated by the equation (5), and when the upper edge r2 is used, the equation (6) is used. A distance Z (second measurement distance) can be calculated.

なお、領域光の上下角度θは、同期検波処理に要する時間と検出距離の最小値、相対速度の最大値に基づいて必要な角度が計算でき、領域光の上下角度をその所定角度以上とすることで、同期検波領域を連続して測定することができるようになる。領域光の上下角度θは、例えば、処理時間0.25秒、最小検知距離2m、相対速度の最大計測値を時速30kmとした場合には、3°度以上が必要な角度となる。   The vertical angle θ of the area light can be calculated based on the time required for the synchronous detection process, the minimum value of the detection distance, and the maximum value of the relative speed, and the vertical angle of the area light is set to be equal to or greater than the predetermined angle. As a result, the synchronous detection region can be continuously measured. The vertical angle θ of the area light is, for example, a required angle of 3 ° or more when the processing time is 0.25 seconds, the minimum detection distance is 2 m, and the maximum measurement value of the relative speed is 30 km / h.

次に、車両Qと測定対象物31との間の相対距離が変化する場合でも、時間遅延が生じることなく両者間の距離を精度良く測定できる原理について、図7,図8を参照して説明する。   Next, even when the relative distance between the vehicle Q and the measurement object 31 changes, the principle that the distance between the two can be accurately measured without causing a time delay will be described with reference to FIGS. To do.

図7は、車両Qと測定対象物31との距離が長くなる場合に、カメラ12で取得された画像を同期検波した画像を示す説明図であり、同図(a)は、同期検波開始時の1フレーム目の画像を示し、同図(b)は同期検波処理に必要なフレーム数(n)後の画像を示している。   FIG. 7 is an explanatory diagram showing an image obtained by synchronously detecting an image acquired by the camera 12 when the distance between the vehicle Q and the measurement object 31 is long. FIG. The image of the first frame is shown, and FIG. 5B shows the image after the number of frames (n) necessary for the synchronous detection processing.

図7(a)から図7(b)までのn枚の画像で連続して領域光を抽出できる領域は、図7(b)に示す領域R1の内側となる。この領域R1の上端部は、図7(a)の1フレーム目の上端部と同じ高さとなり、同期検波領域の上端部から距離測定した場合、同期検波処理開始時の距離を計算していることとなる。即ち、nフレーム目の画像から抽出される上端エッジは、7(b)に示すr3(領域R1の外側上方)であるから、本来はこの上端エッジr3に基づいて距離を測定することが望まれるが、実際には、領域R1の上端部を上端エッジとして距離を測定するので、同期検波開始時における距離を計算していることになる。他方、下端部は、図7(b)のnフレーム目の領域光の下端部と一致しており、同期検波領域の下端部から算出される距離は最新画像での距離ということになる。   A region where region light can be extracted continuously from the n images from FIG. 7A to FIG. 7B is inside the region R1 shown in FIG. 7B. The upper end of this region R1 is the same height as the upper end of the first frame in FIG. 7A, and when the distance is measured from the upper end of the synchronous detection region, the distance at the start of the synchronous detection process is calculated. It will be. That is, since the upper edge extracted from the image of the nth frame is r3 (upper outside of the region R1) shown in 7 (b), it is originally desired to measure the distance based on this upper edge r3. However, since the distance is actually measured using the upper end of the region R1 as the upper edge, the distance at the start of synchronous detection is calculated. On the other hand, the lower end coincides with the lower end of the region light of the nth frame in FIG. 7B, and the distance calculated from the lower end of the synchronous detection region is the distance in the latest image.

従って、測定対象物31が車両Qから遠ざかる場合には、領域R1の下端エッジを用いて両者間の距離を測定することが、測定精度を向上させる上で有利である。   Therefore, when the measurement object 31 moves away from the vehicle Q, it is advantageous to improve the measurement accuracy by measuring the distance between the two using the lower edge of the region R1.

また、図8は、車両Qと測定対象物31との距離が短くなる場合に、カメラ12で取得された画像を同期検波した画像を示す説明図であり、同図(a)は、同期検波開始時の1フレーム目の画像を示し、同図(b)は同期検波処理に必要なフレーム数(n)後の画像を示している。図8(a)から図8(b)までのn枚の画像で連続して領域光を抽出できる領域は、図8(b)のR2に示す領域内となる。この領域R2の下端部は、図8(a)の1フレーム目の下端部と同じ高さとなり、同期検波領域の下端部から距離測定した場合、同期検波処理開始時の距離を計算していることとなる。即ち、nフレーム目の画像から抽出される下端エッジは、8(b)に示すr4(領域R2の外側下方)であるから、本来はこの下端エッジr4に基づいて距離を測定することが望まれるが、実際には、領域R2の下端部を下エッジとして距離を測定するので、同期検波開始時における距離を計算していることになる。他方、上端部は、図8(b)のnフレーム目の領域光の上端部と一致しており、同期検波領域の上端部から算出される距離は最新画像での距離ということになる。   FIG. 8 is an explanatory diagram showing an image obtained by synchronously detecting an image acquired by the camera 12 when the distance between the vehicle Q and the measurement object 31 is short. FIG. An image of the first frame at the start is shown, and FIG. 7B shows an image after the number of frames (n) necessary for the synchronous detection processing. A region where region light can be extracted continuously from the n images from FIG. 8A to FIG. 8B is within the region indicated by R2 in FIG. 8B. The lower end of this region R2 is the same height as the lower end of the first frame in FIG. 8A, and when the distance is measured from the lower end of the synchronous detection region, the distance at the start of the synchronous detection process is calculated. It becomes. That is, the lower edge extracted from the image of the nth frame is r4 (lower outside of the region R2) shown in FIG. 8B, and it is originally desired to measure the distance based on this lower edge r4. However, since the distance is actually measured using the lower end of the region R2 as the lower edge, the distance at the start of synchronous detection is calculated. On the other hand, the upper end coincides with the upper end of the region light of the nth frame in FIG. 8B, and the distance calculated from the upper end of the synchronous detection region is the distance in the latest image.

従って、測定対象物31が車両Qに近づく場合には、領域R2の上端エッジを用いて両者間の距離を測定することが、測定精度を向上させる上で有利である。本実施形態では、測定対象物31と車両Qの間の距離が相対的に長くなる場合と短くなる場合で、上端エッジを用いた距離測定(第1測定距離)、及び下部エッジを用いた距離測定(第2測定距離)のうちのいずれか一方を選択することにより、高精度な距離測定を実現する。   Therefore, when the measurement object 31 approaches the vehicle Q, it is advantageous to improve the measurement accuracy by measuring the distance between the two using the upper edge of the region R2. In the present embodiment, distance measurement using the upper edge (first measurement distance) and distance using the lower edge depending on whether the distance between the measurement object 31 and the vehicle Q is relatively long or short. By selecting one of the measurements (second measurement distance), highly accurate distance measurement is realized.

次に、第1実施形態に係る距離測定装置の動作を、図9に示すフローチャートを参照して説明する。初めに、ステップS1において、カメラ12により車両周囲に存在する測定対象物31の画像を取得する。   Next, the operation of the distance measuring apparatus according to the first embodiment will be described with reference to the flowchart shown in FIG. First, in step S1, an image of the measurement object 31 existing around the vehicle is acquired by the camera 12.

ステップS2において、同期検波処理フローを実行する。その後、ステップS3に処理を進める。なお、同期検波処理フローについては、図10に示すフローチャートを参照して後述する。   In step S2, a synchronous detection process flow is executed. Thereafter, the process proceeds to step S3. The synchronous detection process flow will be described later with reference to the flowchart shown in FIG.

ステップS3において、上端エッジ検出部15は、同期検出された画像から上端エッジを抽出し、更に、下端エッジ検出部16は、同期検波された画像から下端エッジを抽出する。   In step S3, the upper edge detecting unit 15 extracts the upper edge from the synchronously detected image, and the lower edge detecting unit 16 extracts the lower edge from the synchronously detected image.

ステップS4において、第1距離算出部17aは上端エッジに基づき、三角測量の原理を用いて車両Qから測定対象物31までの距離(上述した(5)式で算出される距離Zであり、これを第1測定距離D1とする)を算出し、第2距離算出部17bは下端エッジに基づき、三角測量の原理を用いて車両Qから測定対象物31までの距離(上述した(6)式で算出される距離Zであり、これを第2測定距離D2とする)を算出する。   In step S4, the first distance calculation unit 17a is a distance from the vehicle Q to the measurement object 31 using the principle of triangulation based on the upper edge (the distance Z calculated by the above-described equation (5)). Is calculated as a first measurement distance D1), and the second distance calculation unit 17b uses the triangulation principle based on the lower edge to determine the distance from the vehicle Q to the measurement object 31 (the above-described equation (6)). This is a calculated distance Z, which is referred to as a second measurement distance D2.

ステップS5では、第2測定距離D2が第1測定距離D1より大きいか否かを判定し、大きければステップS6に処理を進め、そうでない場合にはステップS7に処理を進める。   In step S5, it is determined whether or not the second measurement distance D2 is larger than the first measurement distance D1, and if larger, the process proceeds to step S6, and if not, the process proceeds to step S7.

ステップS6では、第1測定距離D1と第2測定距離D2の前回計測値からの変化量を検出し、第1測定距離D1の変化量が0以上(正の値)で、第2測定距離D2の変化量より小さいか否かを判定する。即ち、「dD2/dt>dD1/dt≧0」であるか否かを判定し、第1測定距離D1の変化量が正の値で、且つ第2測定距離D2の変化量より小さい場合には(ステップS6でYES)、ステップS8に処理を進める。他方、第1測定距離D1の変化量が0以下(負の値)で、且つ第2測定距離D2の変化量より小さい場合には(ステップS6でNO)、ステップS7に処理を進める。   In step S6, the amount of change of the first measurement distance D1 and the second measurement distance D2 from the previous measurement value is detected. If the amount of change of the first measurement distance D1 is 0 or more (positive value), the second measurement distance D2 It is determined whether or not the amount of change is smaller. That is, it is determined whether or not “dD2 / dt> dD1 / dt ≧ 0”, and when the change amount of the first measurement distance D1 is a positive value and smaller than the change amount of the second measurement distance D2. (YES in step S6), the process proceeds to step S8. On the other hand, when the change amount of the first measurement distance D1 is 0 or less (negative value) and smaller than the change amount of the second measurement distance D2 (NO in step S6), the process proceeds to step S7.

ステップS7では、第1測定距離D1を選択する。即ち、ステップS5でNOと判定された場合(D1≧D2)には、上端エッジより求められる第1測定距離D1の方がより正確な距離である可能性が高いので、演算負荷を低減するためにステップS6の処理を行わず、第1測定距離D1(上端エッジに基づく測定距離)を選択する。更に、ステップS6でNOと判定された場合、即ち、第1測定距離D1の時間変化が負の値で(即ち、距離が小さくなる傾向にあり)、且つ、第2測定距離D2の時間変化よりも小さい場合には、測定対象物31は、車両Qに接近しているものと判断して、第1測定距離D1を選択する。   In step S7, the first measurement distance D1 is selected. That is, if NO is determined in step S5 (D1 ≧ D2), the first measurement distance D1 obtained from the upper edge is more likely to be a more accurate distance, so that the calculation load is reduced. In step S6, the first measurement distance D1 (measurement distance based on the upper edge) is selected. Furthermore, when it is determined NO in step S6, that is, the time change of the first measurement distance D1 is a negative value (that is, the distance tends to decrease), and the time change of the second measurement distance D2 Is smaller, the measurement object 31 is determined to be approaching the vehicle Q, and the first measurement distance D1 is selected.

他方、ステップS8では、第2測定距離D2を選択する。即ち、第1測定距離D1の時間変化が正の値で(即ち、距離が大きくなる傾向にあり)、且つ、第2測定距離D2の時間変化よりも小さい場合には、測定対象物31は車両Qから離隔するものと判断し、第2測定距離D2(下端エッジに基づく測定距離)を選択する。そして、選択した測定距離(第1測定距離D1または第2測定距離D2)を後段のシステムに出力する。そして、上記の処理が終了したならば、本処理を終了する。   On the other hand, in step S8, the second measurement distance D2 is selected. That is, when the time change of the first measurement distance D1 is a positive value (that is, the distance tends to increase) and is smaller than the time change of the second measurement distance D2, the measurement object 31 is a vehicle. The second measurement distance D2 (measurement distance based on the lower edge) is selected as determined to be separated from Q. Then, the selected measurement distance (first measurement distance D1 or second measurement distance D2) is output to the subsequent system. Then, when the above process is finished, this process is finished.

次に、図10に示すフローチャートを参照して、図9のステップS2の処理で実行される同期検波処理について説明する。   Next, the synchronous detection process executed in the process of step S2 of FIG. 9 will be described with reference to the flowchart shown in FIG.

初めに、ステップS11において同期検波処理を開始し、ステップS12において、取得された画像(カメラ12で撮像された画像)に対して、投光制御部13により規定される搬送波sin(2πfct)(図2参照)をミキシング(乗算)する。具体的には、画像中の処理領域に設定された全画素に対して、取得タイミングに応じた位相における正弦波を掛け合わせる。   First, synchronous detection processing is started in step S11, and in step S12, a carrier wave sin (2πfct) defined by the light projection control unit 13 for the acquired image (image captured by the camera 12) (FIG. 2) is mixed. Specifically, all pixels set in the processing area in the image are multiplied by a sine wave in a phase corresponding to the acquisition timing.

ステップS13において、搬送波sin(2πfct)をミキシングした画像を、同期検波処理部14が有するフレームメモリ(図示省略)に蓄積する。同期検波処理を実施する際に、連続するnフレームの画像が必要な場合には、nフレーム分のフレームメモリが確保され、例えば、リングバッファ構造により、最も古い画像データを最新の画像データにより更新する。   In step S13, an image obtained by mixing the carrier wave sin (2πfct) is stored in a frame memory (not shown) included in the synchronous detection processing unit 14. When performing continuous detection processing, if n consecutive frames of images are required, a frame memory for n frames is secured. For example, the oldest image data is updated with the latest image data by a ring buffer structure. To do.

ステップS14において、フレームメモリに蓄積された画像データより、所定アドレスの画素データの時系列データを読み出す。例えば、最新の時刻tに取得された画素位置(xi,yj)の画素データをI(xi,yj,t)とすると、同期検波に用いる最新n画素分のデータ、I(xi,yj,t),I(xi,yj,t−1),…,I(xi,yj,t−n+1)を読み出す。   In step S14, time-series data of pixel data at a predetermined address is read from the image data stored in the frame memory. For example, assuming that the pixel data of the pixel position (xi, yj) acquired at the latest time t is I (xi, yj, t), the data for the latest n pixels used for synchronous detection, I (xi, yj, t ), I (xi, yj, t−1),..., I (xi, yj, t−n + 1).

ステップS15において、ローパスフィルタ(図2のLPF参照)を適用する。   In step S15, a low-pass filter (see LPF in FIG. 2) is applied.

ステップS16において、ローパスフィルタを適用した画素の時系列データに対し、送信信号の正負判定を行う。例えば、画素値が正の値であれば「1」、負の値であれば「0」を割り当て、送信した信号列(ビット列)を復元する。   In step S16, the positive / negative judgment of the transmission signal is performed on the time-series data of the pixels to which the low-pass filter is applied. For example, “1” is assigned if the pixel value is a positive value, and “0” is assigned if the pixel value is a negative value, and the transmitted signal sequence (bit sequence) is restored.

ステップS17において、処理領域中のすべての画素について、検波が終了したか否かを判定し、処理領域中のすべての画素について検波処理が終了していなければ(ステップS17でNO)、ステップS14に処理を戻し、次の画素位置(例えば、(xi+1、yj))の時系列画素データを読み出し、ステップS15以下の処理を繰り返す。   In step S17, it is determined whether or not the detection has been completed for all the pixels in the processing region. If the detection processing has not been completed for all the pixels in the processing region (NO in step S17), the process proceeds to step S14. The processing is returned, the time-series pixel data at the next pixel position (for example, (xi + 1, yj)) is read, and the processing from step S15 is repeated.

そして、全ての画素について検波処理が終了していれば(ステップS17でYES)、ステップS18において、同期検波画像を出力して終了する。こうして、上端エッジ検出部15で検出される上端エッジに基づいて、車両Qと測定対象物31との間の距離を求めることができるのである。   If the detection process has been completed for all the pixels (YES in step S17), the synchronous detection image is output in step S18 and the process ends. In this way, the distance between the vehicle Q and the measurement object 31 can be obtained based on the upper edge detected by the upper edge detection unit 15.

このようにして、第1実施形態に係る距離測定装置100では、投光部11より、水平方向に広がる発光領域を有する発光パターンを有する領域光を投光し、カメラ12にて、測定対象物31で反射する領域光を撮像する。更に、撮像した領域光を同期検波することにより、発光パターンがオンのときに撮像された測定対象物31の画像から上端エッジ、及び下端エッジを抽出する。そして、抽出した上端エッジに基づいて車両Qと測定対象物31との間の距離を第1測定距離D1として算出し、下端エッジに基づいて車両Qと測定対象物31との間の距離を第2測定距離D2として算出する。   Thus, in the distance measuring device 100 according to the first embodiment, the light projecting unit 11 projects area light having a light emission pattern having a light emitting area extending in the horizontal direction, and the camera 12 measures the measurement object. The area light reflected at 31 is imaged. Further, the upper edge and the lower edge are extracted from the image of the measurement object 31 captured when the light emission pattern is on by synchronously detecting the captured area light. Then, the distance between the vehicle Q and the measurement object 31 is calculated as the first measurement distance D1 based on the extracted upper edge, and the distance between the vehicle Q and the measurement object 31 is calculated based on the lower edge. 2 Calculated as the measurement distance D2.

更に、第1測定距離D1及び第2測定距離D2の時間変化をそれぞれ算出し、この算出結果に基づいて第1測定距離D1、または第2測定距離D2のうちの一方を選択する。従って、車両Qと測定対象物31との間の距離が変化する場合であっても、これらの間の距離を高精度に測定することができる。   Furthermore, the temporal changes of the first measurement distance D1 and the second measurement distance D2 are calculated, and one of the first measurement distance D1 and the second measurement distance D2 is selected based on the calculation result. Therefore, even when the distance between the vehicle Q and the measurement object 31 changes, the distance between them can be measured with high accuracy.

また、第2測定距離D2が第1測定距離D1よりも大きい場合に、第1測定距離D1の時間変化(dD1/dt)、及び第2測定距離D2の時間変化(dD2/dt)に基づいて、第1測定距離D1または第2測定距離D2のうちの一方を選択するので、比較的簡単な手法でより精度の高い測定距離を選択することができる。   Further, when the second measurement distance D2 is larger than the first measurement distance D1, based on the time change (dD1 / dt) of the first measurement distance D1 and the time change (dD2 / dt) of the second measurement distance D2. Since one of the first measurement distance D1 and the second measurement distance D2 is selected, a more accurate measurement distance can be selected by a relatively simple method.

更に、第1測定距離D1の時間変化(dD1/dt)が負の値で、且つ第2測定距離D2の時間変化(dD2/dt)よりも小さい場合には、車両Qと測定対象物31との距離は小さくなる傾向にあるので、第1測定距離D1を選択し、第1測定距離D1の時間変化(dD1/dt)が正の値で、且つ第2測定距離D2の時間変化(dD2/dt)よりも小さい場合には、車両Qと測定対象物31との距離は大きくなる傾向にあるので、第2測定距離D2を選択する。従って、車両Qと測定対象物31と間の距離の変化に応じた適切な測定距離(D1またはD2)を選択して測定対象物31までの距離を求めることが可能となる。   Further, when the time change (dD1 / dt) of the first measurement distance D1 is a negative value and smaller than the time change (dD2 / dt) of the second measurement distance D2, the vehicle Q and the measurement object 31 Therefore, the first measurement distance D1 is selected, the time change of the first measurement distance D1 (dD1 / dt) is a positive value, and the time change of the second measurement distance D2 (dD2 / If the distance is smaller than dt), the distance between the vehicle Q and the measurement object 31 tends to increase, so the second measurement distance D2 is selected. Therefore, it is possible to select an appropriate measurement distance (D1 or D2) corresponding to a change in the distance between the vehicle Q and the measurement object 31, and obtain the distance to the measurement object 31.

また、投光部11による照射光と、カメラ12による撮像タイミングは、投光制御部(制御手段)13により制御され、該投光制御部13が生成する搬送波(sin(2πfct))により、同期検波処理部14による同期検波を行うことにより、照射光が抽出される。そして、この同期検波処理は、位相変調、振幅変調、及び周波数変調のうちの少なくとも一つが用いられるので、複数の装置で同時に距離測定が行われる場合の混信を回避でき、且つ、検出頑健性の向上を図ることができる。   Further, the irradiation light by the light projecting unit 11 and the imaging timing by the camera 12 are controlled by the light projecting control unit (control means) 13 and are synchronized by the carrier wave (sin (2πfct)) generated by the light projecting control unit 13. Irradiation light is extracted by performing synchronous detection by the detection processing unit 14. Since this synchronous detection process uses at least one of phase modulation, amplitude modulation, and frequency modulation, it is possible to avoid interference when distance measurement is simultaneously performed by a plurality of devices, and detection robustness can be avoided. Improvements can be made.

更に、投光部11の発光源は、赤外線、または紫外線を発するので、カメラ12に特定スペクトルの光を高効率で透過するフィルタを設けることにより、照射光をより一層頑健に検出することが可能となる。また、パルス光照射により他者の視認を妨げず、幻惑を防止することが可能となる。   Furthermore, since the light source of the light projecting unit 11 emits infrared rays or ultraviolet rays, it is possible to detect the irradiation light more robustly by providing the camera 12 with a filter that transmits light of a specific spectrum with high efficiency. It becomes. In addition, it is possible to prevent dazzling without disturbing the visual recognition of others by irradiation with pulsed light.

次に、カメラ12の視軸が上端エッジが照射される方向に対して所定の俯角を有するように設定することにより、分解能を向上させることができることについて説明する。   Next, it will be described that the resolution can be improved by setting the visual axis of the camera 12 to have a predetermined depression angle with respect to the direction in which the upper edge is irradiated.

1個のカメラ12で広域を観測するためには、通常、広角レンズが用いられる。一般的な広角レンズは、射影方式として等距離射影レンズ(いわゆる、fθレンズ)を採用しており、周辺視野では中心視野に比べて分解能が劣る。このような広角レンズとの組み合わせにおいては、カメラ視軸に俯角(或いは仰角)を持たせ、分解能が高い領域を監視したい領域に向けて適切に設定することが肝要となる。   In order to observe a wide area with one camera 12, a wide-angle lens is usually used. A general wide-angle lens employs an equidistant projection lens (so-called fθ lens) as a projection method, and the peripheral visual field has a lower resolution than the central visual field. In combination with such a wide-angle lens, it is important that the camera viewing axis has a depression angle (or elevation angle) and an area with high resolution is set appropriately for the area to be monitored.

以下、fθレンズとの組み合せにおいて、簡単のために、照射光の上端エッジが路面に対して水平である場合を仮定し、カメラ視軸の俯角がある場合に、被観測対象までの距離計測値の分解能が向上することを、図11,図12を参照して説明する。カメラ視軸に俯角が無い場合を図11に示し、俯角が有る場合を図12に示す。   Hereinafter, for the sake of simplicity in the combination with the fθ lens, it is assumed that the upper edge of the irradiated light is horizontal with respect to the road surface, and the distance measurement value to the object to be observed when there is a depression angle of the camera visual axis. The improvement in the resolution will be described with reference to FIGS. FIG. 11 shows a case where there is no depression angle on the camera visual axis, and FIG. 12 shows a case where there is a depression angle.

図11,図12で、視軸方向の画素位置をy(j)とし、y(j)の下に隣接する画素位置をy(j+1)とする。このとき、図11に示すように、俯角(仰角)が0度の場合において、画素位置y(j)とy(j+1)で決定される1画素の角度分解能は、実空間距離での距離分解能dD(0)であるとする。一方、図12に示すように、俯角(仰角)がα度の場合において、画素位置y(j)とy(j+1)で決定される1画素の角度分解能は、実空間距離での距離分解能dD(α)であるとする。この場合、dD(α)<dD(0)が成立するので、カメラ視軸に俯角(仰角)を持たせた場合、1画素の角度分解能に対する実空間分解能が高くなる。即ち、俯角αを設けることにより、上端エッジを抽出する際の実空間分解能を高くすることが可能となる。   11 and 12, the pixel position in the visual axis direction is y (j), and the pixel position adjacent to y (j) is y (j + 1). At this time, as shown in FIG. 11, when the depression angle (elevation angle) is 0 degree, the angular resolution of one pixel determined by the pixel positions y (j) and y (j + 1) is the distance resolution at the real space distance. Let dD (0). On the other hand, as shown in FIG. 12, when the depression angle (elevation angle) is α degrees, the angular resolution of one pixel determined by the pixel positions y (j) and y (j + 1) is the distance resolution dD at the real space distance. Assume that (α). In this case, since dD (α) <dD (0) is established, when the depression angle (elevation angle) is given to the camera visual axis, the real space resolution with respect to the angular resolution of one pixel is increased. That is, by providing the depression angle α, it is possible to increase the real spatial resolution when extracting the upper edge.

このように、投光部11により投光される領域光の上端エッジは、カメラ12に対して横方向に領域が形成され、カメラ12は上端エッジ照射方向に対して鉛直な方向にオフセットして配置されると共に、上端エッジ照射方向と視軸が所定角度をなすようにすれば、一般的な広角レンズ(魚眼レンズ)を使用した際においても、三角測量の原理に基づき距離計測する際の計測精度が向上する。   As described above, the upper edge of the region light projected by the light projecting unit 11 is formed in a region lateral to the camera 12, and the camera 12 is offset in a direction perpendicular to the upper edge irradiation direction. Measurement accuracy when distance is measured based on the principle of triangulation even when a general wide-angle lens (fisheye lens) is used, as long as the top edge irradiation direction and the visual axis form a predetermined angle. Will improve.

[第2実施形態の説明]
次に、第2実施形態について説明する。図13は、本発明の第2実施形態に係る距離測定装置の構成を示すブロック図である。図13に示すように、この距離測定装置101は、前述した第1実施形態と対比して、2つの投光部、即ち上段投光部(第1投光部)20と、下段投光部(第2投光部)21を備えている点、下段投光部21より投光する領域光の光パターンの位相をπ[rad]だけ変位させるπ位相器22を備える点で相違する。それ以外の構成は、前述した図1と同一であるので、同一符号を付して構成説明を省略する。
[Description of Second Embodiment]
Next, a second embodiment will be described. FIG. 13 is a block diagram showing a configuration of a distance measuring apparatus according to the second embodiment of the present invention. As shown in FIG. 13, the distance measuring device 101 includes two light projecting units, that is, an upper light projecting unit (first light projecting unit) 20 and a lower light projecting unit, in contrast to the first embodiment described above. The difference is that a (second light projecting unit) 21 is provided, and a π phase shifter 22 that displaces the phase of the light pattern of the region light projected from the lower light projecting unit 21 by π [rad]. Since the other configuration is the same as that of FIG. 1 described above, the same reference numerals are given and description of the configuration is omitted.

第2実施形態に係る距離測定装置101では、上下方向の照射角度が相違する2個の投光部(上段投光部20,下段投光部21)を設置し、各投光部20,21は、上端部にのみ明暗のエッジを有する光源を用いている。そして、下段投光部21に供給する変調信号をπ位相器22を用いて、上段投光部20の変調信号に対して、逆位相とする。   In the distance measuring apparatus 101 according to the second embodiment, two light projecting units (upper light projecting unit 20 and lower light projecting unit 21) having different irradiation angles in the vertical direction are installed, and the respective light projecting units 20 and 21 are installed. Uses a light source having bright and dark edges only at the upper end. Then, the modulation signal supplied to the lower light projecting unit 21 is set to an opposite phase to the modulation signal of the upper light projecting unit 20 using the π phase shifter 22.

そして、図14に示すように、上段投光部20、及び下段投光部21より測定対象物31に向けて領域光を投光すると、カメラ12により図15に示す如くの画像が撮像される。図15に示すように、上段投光部20によりP1に示す領域にパルス光が投光され、下段投光部21によりP2に示す領域にパルス光が投光される。   As shown in FIG. 14, when area light is projected toward the measurement target 31 from the upper light projecting unit 20 and the lower light projecting unit 21, an image as illustrated in FIG. 15 is captured by the camera 12. . As shown in FIG. 15, pulse light is projected onto the area indicated by P <b> 1 by the upper stage light projecting unit 20, and pulse light is projected onto the area indicated by P <b> 2 by the lower stage light projecting part 21.

そして、領域P1とP2とが重複する部分(即ち、領域P2)は、変調信号が逆位相により相殺される領域となるので、同期検波処理部14で検出される同期検波検出領域とはならない。従って、測定対象物31の画像上には、上段投光部20より投光される領域光による上端エッジr11、及び、下段投光部21より投光される領域光による上端エッジr12が存在することになる。そして、各上端エッジr11,r12を、第1実施形態に示した上端エッジ、下端エッジ(図5に示すr1,r2)であるものとすれば、2つの上端エッジr11,r12を用いて、車両Qと測定対象物31との間の距離が変化した場合において、高精度な距離測定が可能となる。   A portion where the regions P1 and P2 overlap (that is, the region P2) is a region where the modulation signal is canceled by the opposite phase, and thus is not a synchronous detection detection region detected by the synchronous detection processing unit 14. Therefore, on the image of the measurement object 31, there are an upper edge r <b> 11 due to the region light projected from the upper light projecting unit 20 and an upper edge r <b> 12 due to the region light projected from the lower light projecting unit 21. It will be. If the upper end edges r11, r12 are the upper end edge and the lower end edge (r1, r2 shown in FIG. 5) shown in the first embodiment, the two upper end edges r11, r12 are used to When the distance between Q and the measuring object 31 changes, highly accurate distance measurement is possible.

図16は、第2実施形態に係る距離測定装置101による変調信号、及び同期検波信号の変化を示すタイミングチャートである。図16(a)は、送信信号S(t)を示しており、「0」「1」のビット信号で示されている。(b)は、上段投光部20より投光される領域光の変調信号を示し、(c)は、下段投光部21より投光される領域光の変調信号を示している。図16(b),(c)より、上段投光部20より投光される領域光と下段投光部21より投光される領域光は逆位相(位相差π[rad])となっていることが理解される。   FIG. 16 is a timing chart showing changes in the modulation signal and the synchronous detection signal by the distance measuring apparatus 101 according to the second embodiment. FIG. 16A shows the transmission signal S (t), which is indicated by bit signals “0” and “1”. (B) shows the modulation signal of the region light projected from the upper light projecting unit 20, and (c) shows the modulation signal of the region light projected from the lower light projection unit 21. 16B and 16C, the region light projected from the upper light projecting unit 20 and the region light projected from the lower light projecting unit 21 have opposite phases (phase difference π [rad]). It is understood that

図16(d)は、(b)に示した変調信号による上段投光部20の領域光の輝度変化を示しており、上段投光部20のみで投光される領域で検出される領域光の輝度変化となる。また、図16(e)は、上段投光部20より投光される領域光と下段投光部21より投光される領域光が混在した領域(図15の領域P2)での輝度変化を示している。この領域においては、ほぼ輝度変化が発生していないことが理解される。   FIG. 16D shows the luminance change of the region light of the upper light projecting unit 20 by the modulation signal shown in FIG. 16B, and the region light detected in the region projected only by the upper light projecting unit 20. Changes in brightness. FIG. 16E shows the luminance change in a region (region P2 in FIG. 15) where the region light projected from the upper light projecting unit 20 and the region light projected from the lower light projecting unit 21 are mixed. Show. It is understood that almost no change in luminance occurs in this region.

つまり、16(d)に示した輝度変化が検出される領域においては、図16(f)に示すように同期検波処理により送信信号を復調して、図16(g)に示す如くの「0」「1」信号を取得することができるが、(e)に示す領域では同期検波ができないことになる。   That is, in the region where the change in luminance shown in 16 (d) is detected, the transmission signal is demodulated by synchronous detection processing as shown in FIG. 16 (f), and “0” as shown in FIG. “1” signal can be acquired, but synchronous detection cannot be performed in the region shown in FIG.

このようにして、第2実施形態に係る距離測定装置101では、上端部に水平な輝度エッジを有する上段投光部20、及び下段投光部21を設け、各投光部20,21の上下俯瞰角度を所定角度だけ異ならせて領域光を照射し、上段投光部20より投光される領域光の時間変調と、下段投光部21より投光される領域光の時間変調とを互いに逆位相としている。そして、上段投光部20より投光された領域光より抽出される上端エッジと、下段投光部21より投光された領域光より抽出される上端エッジを用いることにより、上述した第1実施形態と同様の効果を得ることができる。   Thus, in the distance measuring apparatus 101 according to the second embodiment, the upper light projecting unit 20 and the lower light projecting unit 21 having a horizontal luminance edge are provided at the upper end, and the upper and lower light projecting units 20 and 21 are arranged above and below. Area light is irradiated with the overhead angle varied by a predetermined angle, and time modulation of area light projected from the upper light projecting unit 20 and time modulation of area light projected from the lower light projecting unit 21 are mutually performed. The phase is reversed. Then, by using the upper edge extracted from the area light projected from the upper light projecting unit 20 and the upper edge extracted from the area light projected from the lower light projecting unit 21, the first embodiment described above is used. The same effect as the form can be obtained.

その結果、前述した第1実施形態と同様に、車両Qと測定対象物31との間の距離が変化する場合であっても、2つの上端エッジのうちのいずれか一方を選択して距離を求めることにより、両者間の距離を高精度に測定することができることとなる。   As a result, as in the first embodiment described above, even if the distance between the vehicle Q and the measurement object 31 changes, one of the two upper edges is selected and the distance is selected. By calculating | requiring, the distance between both can be measured with high precision.

なお、投光部より投光する光の波長としては、可視光、赤外光等を使用することが考えられ、その場合にはカメラ12は投光する波長を観測できるような素子を使用したものとすれば良い。   In addition, it is possible to use visible light, infrared light, etc. as a wavelength of the light projected from a light projection part, In that case, the camera 12 used the element which can observe the wavelength to project. It should be.

以上、本発明の距離測定装置を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。   The distance measuring device of the present invention has been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each part is replaced with an arbitrary configuration having the same function. Can do.

本発明は、車両と測定対象物との間の距離を高精度に測定することに利用することができる。   The present invention can be used to measure the distance between a vehicle and a measurement object with high accuracy.

11 投光部
12 カメラ
13 投光制御部
14 同期検波処理部
15 上端エッジ検出部
16 下端エッジ検出部
17a 第1距離算出部
17b 第2距離算出部
18 距離選択部
20 上段投光部
21 下段投光部
22 π位相器
31 測定対象物
100,101 距離測定装置
DESCRIPTION OF SYMBOLS 11 Light projection part 12 Camera 13 Light projection control part 14 Synchronous detection process part 15 Upper end edge detection part 16 Lower end edge detection part 17a 1st distance calculation part 17b 2nd distance calculation part 18 Distance selection part 20 Upper stage light projection part 21 Lower stage light projection Optical unit 22 π phase shifter 31 Measuring object 100, 101 Distance measuring device

Claims (7)

移動体に搭載され、該移動体の周囲に水平方向に広がる発光領域を有すると共に、上端部、及び下端部が水平となる直線状の端部を有する時間変調したパルス光を投光する投光手段と、
前記移動体に搭載され、前記投光手段により投光され対象物にて反射したパルス光を撮像する撮像手段と、
前記撮像手段により撮像された画像から前記パルス光を抽出する検波手段と、
前記投光手段による投光、前記撮像手段による撮像、及び前記検波手段による検波を制御する制御手段と、
前記検波手段により検出されるパルス光のエッジを検出するエッジ検出手段と、
前記エッジ検出手段により検出されるエッジの画像位置に基づいて、前記対象物との間の距離を算出する距離算出手段と、を有し、
前記エッジ検出手段は、前記パルス光の上端エッジを検出する上端エッジ検出部、及び下端エッジを検出する下端エッジ検出部を含み、
前記距離算出手段は、前記上端エッジ検出部で検出される上端エッジに基づいて、前記対象物までの距離を第1測定距離として算出する第1距離算出部、及び前記下端エッジ検出部で検出される下端エッジに基づいて、前記対象物までの距離を第2測定距離として算出する第2距離算出部を含み、
更に、前記第1測定距離の時間変化及び前記第2測定距離の時間変化をそれぞれ算出し、その算出結果と前記第1測定距離と前記第2測定距離との大きさの比較結果に基づいて、前記第1測定距離、或いは前記第2測定距離のうち、いずれか一方を選択する距離選択手段と、
を備えたことを特徴とする距離測定装置。
Light projection that is mounted on a movable body and has a light emitting region that extends in the horizontal direction around the movable body, and that emits time-modulated pulsed light that has a linear end with the upper end and the lower end being horizontal. Means,
An imaging unit that is mounted on the moving body and images the pulsed light that is projected by the light projecting unit and reflected by the object;
Detection means for extracting the pulsed light from the image captured by the imaging means;
Control means for controlling light projection by the light projection means, imaging by the imaging means, and detection by the detection means;
Edge detection means for detecting an edge of the pulsed light detected by the detection means;
Distance calculating means for calculating a distance between the object based on the image position of the edge detected by the edge detecting means;
The edge detection means includes an upper edge detection unit that detects an upper edge of the pulsed light, and a lower edge detection unit that detects a lower edge.
The distance calculation means is detected by a first distance calculation unit that calculates a distance to the object as a first measurement distance based on the upper edge detected by the upper edge detection unit, and the lower edge detection unit. A second distance calculation unit that calculates a distance to the object as a second measurement distance based on the lower edge of
Further, the time change of the first measurement distance and the time change of the second measurement distance are calculated, respectively, and based on the comparison result of the calculation result and the magnitude of the first measurement distance and the second measurement distance, A distance selecting means for selecting one of the first measurement distance and the second measurement distance;
A distance measuring device comprising:
前記距離選択手段は、
前記第1測定距離と前記第2測定距離の大きさを比較し、前記第2測定距離が前記第1測定距離よりも大きい場合に、前記第1測定距離の時間変化及び前記第2測定距離の時間変化の算出結果に基づいて、前記第1測定距離、或いは前記第2測定距離のうち、いずれか一方を選択することを特徴とする請求項1に記載の距離測定装置。
The distance selecting means is
The magnitudes of the first measurement distance and the second measurement distance are compared, and when the second measurement distance is larger than the first measurement distance, the time change of the first measurement distance and the second measurement distance The distance measuring device according to claim 1, wherein either one of the first measurement distance and the second measurement distance is selected based on a calculation result of time change.
前記距離選択手段は、
第1測定距離の時間変化が負の値で、且つ前記第2測定距離の時間変化よりも小さい場合には、第1測定距離を選択し、
第1測定距離の時間変化が正の値で、且つ前記第2測定距離の時間変化より小さい場合には、前記第2測定距離を選択することを特徴とする請求項1または請求項2のいずれかに記載の距離測定装置。
The distance selecting means is
When the time change of the first measurement distance is a negative value and smaller than the time change of the second measurement distance, the first measurement distance is selected,
3. The second measurement distance is selected when the time change of the first measurement distance is a positive value and smaller than the time change of the second measurement distance. The distance measuring device according to claim.
前記制御手段及び前記検波手段は、前記時間変調として、振幅変調、位相変調、及び周波数変調のうちの少なくとも1つを用いて、前記投光手段及び前記撮像手段を制御することを特徴とする請求項1〜請求項3のいずれか1項に記載の距離測定装置。   The control unit and the detection unit control the light projecting unit and the imaging unit using at least one of amplitude modulation, phase modulation, and frequency modulation as the time modulation. The distance measuring device according to any one of claims 1 to 3. 前記投光手段は、可視光、赤外光、及び紫外光のうちの少なくとも1つを照射する光源を有し、前記撮像手段は、前記光源に応じて、可視光領域、赤外領域、及び紫外領域のうちの少なくとも1つに感度を有することを特徴とする請求項1〜請求項4のいずれか1項に記載の距離測定装置。   The light projecting means has a light source that emits at least one of visible light, infrared light, and ultraviolet light, and the imaging means has a visible light region, an infrared region, and The distance measuring device according to claim 1, wherein the distance measuring device has sensitivity in at least one of the ultraviolet regions. 前記撮像手段は、前記投光手段に対して鉛直方向に設けられ、撮影方向が所定の俯角を有することを特徴とする請求項1〜請求項5のいずれか1項に記載の距離測定装置。   The distance measuring apparatus according to claim 1, wherein the imaging unit is provided in a vertical direction with respect to the light projecting unit, and a shooting direction has a predetermined depression angle. 前記投光手段は、水平方向に発光領域を有し、且つ、上端部が水平となる直線状の端部を有するパルス光を投光する第1投光部と、
前記第1投光部よりも俯角が大きく設定され、水平方向に発光領域を有し、且つ、上端部が水平となる直線状の端部を有するパルス光を投光する第2投光部と、を含み、
前記第1投光部より投光されるパルス光と、前記第2投光部より投光されるパルス光を、互いに逆位相とし、
前記上端エッジ検出手段は、前記第1投光部より投光され、前記検波手段で抽出される上端部のエッジを上端エッジとして検出し、
前記下端エッジ検出手段は、前記第2投光部より投光され、前記検波手段で抽出される上端部のエッジを下端エッジとして検出することを特徴とする請求項1〜請求項6のいずれか1項に記載の距離測定装置。
The light projecting means has a light emitting region in the horizontal direction, and a first light projecting unit that projects pulsed light having a linear end with the upper end being horizontal, and
A second light projecting unit configured to project pulsed light having a linear end portion having a light emitting area in the horizontal direction and a horizontal upper end portion, the depression angle being set larger than that of the first light projecting unit; Including,
The pulsed light projected from the first light projecting unit and the pulsed light projected from the second light projecting unit have opposite phases,
The upper edge detection means detects the edge of the upper edge that is projected from the first light projecting section and extracted by the detection means as an upper edge,
The said lower end edge detection means detects the edge of the upper end part projected by the said 2nd light projection part, and is extracted by the said detection means as a lower end edge. The distance measuring device according to item 1.
JP2011184313A 2011-08-26 2011-08-26 Distance measuring equipment Withdrawn JP2013044690A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011184313A JP2013044690A (en) 2011-08-26 2011-08-26 Distance measuring equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011184313A JP2013044690A (en) 2011-08-26 2011-08-26 Distance measuring equipment

Publications (1)

Publication Number Publication Date
JP2013044690A true JP2013044690A (en) 2013-03-04

Family

ID=48008704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011184313A Withdrawn JP2013044690A (en) 2011-08-26 2011-08-26 Distance measuring equipment

Country Status (1)

Country Link
JP (1) JP2013044690A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112805596A (en) * 2018-10-02 2021-05-14 戴姆勒股份公司 Device and method for determining the position of a vehicle relative to a charging module

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112805596A (en) * 2018-10-02 2021-05-14 戴姆勒股份公司 Device and method for determining the position of a vehicle relative to a charging module
US11951861B2 (en) 2018-10-02 2024-04-09 Daimler Ag Device and method for determining a position of a vehicle relative to a charging module

Similar Documents

Publication Publication Date Title
JP5800082B2 (en) Distance measuring device and distance measuring method
JP6407211B2 (en) Camera device and its use
JP7238343B2 (en) Distance measuring device and distance measuring method
JP2022105771A (en) Distance measuring device
US20130258108A1 (en) Road Surface Shape Recognition System and Autonomous Mobile Apparatus Using Same
US9106805B2 (en) Image measuring system
JP5772714B2 (en) Light detection device and vehicle control system
EP2813809A1 (en) Device and method for measuring the dimensions of an objet and method for producing an item using said device
RU2655256C1 (en) Device for detection of a traffic light and method of detecting a traffic light
US20140009584A1 (en) Device and method for the optical 3d measurement of surfaces
JP2017075887A (en) Vibration detection device, inspection device, vibration detection method, and vibration detection program
JP2014178245A (en) Distance measuring apparatus
RU2700646C2 (en) Traffic light detection device and traffic light detection method
JP5682334B2 (en) Distance measuring device for moving objects
JP6477348B2 (en) Self-position estimation apparatus and self-position estimation method
JP5751416B2 (en) Distance measuring device
JP2009041928A (en) Distance measuring method and device, and vehicle equipped with same device
JP2013044690A (en) Distance measuring equipment
KR102543027B1 (en) Method and apparatus for obtaining 3 dimentional image
JP5277650B2 (en) Photodetection device and photodetection method
JP4944633B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP6236955B2 (en) Distance measuring device
JP6171502B2 (en) Projector and electronic device having projector function
JP6432601B2 (en) Signal detection device and signal detection method
JP5939422B2 (en) Distance measuring device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104