JP2006322852A - Ranging device, ranging technique, and ranging program - Google Patents

Ranging device, ranging technique, and ranging program Download PDF

Info

Publication number
JP2006322852A
JP2006322852A JP2005147174A JP2005147174A JP2006322852A JP 2006322852 A JP2006322852 A JP 2006322852A JP 2005147174 A JP2005147174 A JP 2005147174A JP 2005147174 A JP2005147174 A JP 2005147174A JP 2006322852 A JP2006322852 A JP 2006322852A
Authority
JP
Japan
Prior art keywords
distance
calculation
detection
data
detection range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005147174A
Other languages
Japanese (ja)
Inventor
Hidekazu Iwaki
秀和 岩城
Akio Kosaka
明生 小坂
Takashi Miyoshi
貴史 三由
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005147174A priority Critical patent/JP2006322852A/en
Priority to PCT/JP2006/309664 priority patent/WO2006123615A1/en
Priority to EP06732595A priority patent/EP1887382A1/en
Publication of JP2006322852A publication Critical patent/JP2006322852A/en
Priority to US11/985,991 priority patent/US7656508B2/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a ranging device capable of acquiring highly precise and detailed range information quickly. <P>SOLUTION: The ranging device 1 is equipped with a range arithmetic section 20 calculating the range to an object located within an imaging field of view based on an imagery signal group output from an imaging section 10, a radar 60 detecting the range to the object located in detection range, and an interpolating section 31 creating the range data combining the in-range data interpolated with the calculated value of the range arithmetic section 20 between the detected values of the radar 60 with the outlying data consisting of the calculated values corresponding to the outlying range of the radar 60. Also, the interpolating section 31 creates the range data using the previous outlying data, up to the finalization of acquiring of the outlying data in now processing. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、所定範囲内に位置する物体までの距離を計測する距離計測装置、検出方法および検出プログラムに関する。   The present invention relates to a distance measuring device, a detection method, and a detection program for measuring a distance to an object located within a predetermined range.

近年、車両の大衆化にともない、車両に搭載される各種装置が実用化されている。このような車両搭載用装置として、自車両と先行車両との車間距離を計測し、計測した車間距離に基づいて警報出力などの各種処理を行なう距離計測装置がある。   In recent years, with the popularization of vehicles, various devices mounted on vehicles have been put into practical use. As such a vehicle-mounted device, there is a distance measuring device that measures an inter-vehicle distance between the host vehicle and a preceding vehicle and performs various processes such as alarm output based on the measured inter-vehicle distance.

従来から、このような距離計測装置として、レーダを備えた距離計測装置が提案されている(特許文献1参照)。このレーダ距離計測装置は、たとえば前方向に対してレーザ光等の発信波を発して、先行車両等の障害物からの反射波を検知することによって障害物の有無および障害物までの距離を検出している。   Conventionally, as such a distance measuring device, a distance measuring device including a radar has been proposed (see Patent Document 1). This radar distance measuring device detects the presence of an obstacle and the distance to the obstacle by emitting a transmitted wave such as a laser beam in the forward direction and detecting a reflected wave from an obstacle such as a preceding vehicle. is doing.

また、従来から、距離計測装置として、イメージセンサを有する光学式の距離計測装置が提案されている(特許文献2参照)。この距離計測装置は、左右二つのレンズと、これら左右のレンズにそれぞれ対応するイメージセンサを有する撮像部を備える。そして、イメージセンサから出力されたそれぞれの画像のうち、一方の画像の中から、他方の画像における任意の画像信号と整合する画像信号を検出し、検出した画像信号における移動量をもとに、三角測量の原理を用いて対象物までの距離を、画像信号ごとに演算する。   Conventionally, an optical distance measuring device having an image sensor has been proposed as a distance measuring device (see Patent Document 2). The distance measuring device includes an imaging unit having two left and right lenses and an image sensor corresponding to each of the left and right lenses. Then, among each image output from the image sensor, an image signal that matches an arbitrary image signal in the other image is detected from one image, and based on the amount of movement in the detected image signal, The distance to the object is calculated for each image signal using the principle of triangulation.

実公昭63−43172号公報Japanese Utility Model Publication No. 63-43172 特公昭63−46363号公報Japanese Examined Patent Publication No. 63-46363

しかしながら、従来のレーダを備えた距離計測装置では、検出範囲が狭く、さらに各検出点間の間隔が広く、距離情報を疎らにしか取得することができなかった。このため、このような距離情報に基づいて警報出力などの各種処理を行なった場合、正確性に欠ける場合があった。   However, in the distance measuring device equipped with the conventional radar, the detection range is narrow and the distance between the detection points is wide, and the distance information can only be acquired sparsely. For this reason, when various processing such as alarm output is performed based on such distance information, accuracy may be lacking.

また、従来の光学式の距離計測装置では、レーダを備えた距離計測装置と比較し、演算点が多く、詳細な距離情報が取得できる一方、測定距離の範囲の広範囲化や測定の高精度化を図る場合には、膨大な演算時間を必要としていた。このため、従来の光学式の距離計測装置は、リアルタイムに演算結果を出力するために、演算時間および演算画素の間引き、測定距離範囲の狭小化、エッジ部分のみの演算処理、距離分解能を低下化などを行っていた。この結果、従来の光学式の距離計測装置では、高精度で詳細な距離情報を迅速に取得することができず、距離画像を用いた各種処理を精度よく、適切なタイミングで行うことができなかった。   In addition, the conventional optical distance measuring device has more calculation points and can acquire detailed distance information compared to a distance measuring device equipped with a radar. To achieve this, enormous calculation time is required. For this reason, the conventional optical distance measurement device thins out the calculation time and calculation pixels, narrows the measurement distance range, calculates only the edge portion, and reduces the distance resolution in order to output the calculation results in real time. And so on. As a result, the conventional optical distance measuring device cannot quickly acquire detailed distance information with high accuracy, and cannot perform various processes using the distance image accurately and at appropriate timing. It was.

この発明は、上記した従来技術の欠点に鑑みてなされたものであり、距離計測装置において、高精度で詳細な距離情報を迅速に取得することができる距離計測装置を提供することを目的とする。   The present invention has been made in view of the above-described drawbacks of the prior art, and it is an object of the present invention to provide a distance measuring device capable of quickly acquiring detailed distance information with high accuracy in a distance measuring device. .

上述した課題を解決し、目的を達成するために、この発明にかかる距離計測装置は、所定の検出範囲内に位置する物体までの距離を検出する検出手段と、少なくとも前記検出範囲を含む撮像視野を有し、前記撮像視野に対応する画像信号群を生成する撮像手段と、前記画像信号群に基づいて前記撮像視野内に位置する物体までの距離を演算する演算手段と、前記検出手段の検出値間を前記演算手段の演算値で補間した検出範囲内データと、前記検出範囲外に対応する前記演算値からなる検出範囲外データとを組み合わせた距離データを生成する補間手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, a distance measuring device according to the present invention includes a detection unit that detects a distance to an object located within a predetermined detection range, and an imaging field including at least the detection range. An imaging means for generating an image signal group corresponding to the imaging visual field, an arithmetic means for calculating a distance to an object located in the imaging visual field based on the image signal group, and detection by the detection means Interpolation means for generating distance data by combining data within the detection range obtained by interpolating between the values with the calculation value of the calculation means and data outside the detection range including the calculation value corresponding to outside the detection range. It is characterized by that.

また、この発明にかかる距離計測装置は、前記補間手段は、現処理中の前記検出範囲外データの取得完了までの間、前回の前記検出範囲外データを用いて前記距離データを生成することを特徴とする。   Further, in the distance measuring device according to the present invention, the interpolation means generates the distance data using the previous out-of-detection range data until the completion of acquisition of the out-of-detection range data being currently processed. Features.

また、この発明にかかる距離計測装置は、前記補間手段は、前記検出手段が前記検出値を取得する間に、前記検出範囲内データを取得することを特徴とする。   The distance measuring apparatus according to the present invention is characterized in that the interpolation means acquires the data within the detection range while the detection means acquires the detection value.

また、この発明にかかる距離計測装置は、前記検出手段の検出範囲を探索する検出範囲探索手段を備え、前記補間手段は、前記検出範囲探索手段の探索結果に基づいて前記検出範囲内データおよび前記検出範囲外データを取得することを特徴とする。   The distance measuring device according to the present invention further comprises detection range search means for searching for a detection range of the detection means, and the interpolation means is configured to detect the data within the detection range and the data based on the search result of the detection range search means. Data outside the detection range is acquired.

また、この発明にかかる距離計測装置は、前記撮像手段は、第1の光路を介して撮像した第1の前記画像信号群と、第2の光路を介して撮像した第2の前記画像信号群とを生成し、前記演算手段は、前記第2の画像信号群の中から前記第1の画像信号群の任意の画像信号と整合する画像信号を検出し、検出した画像信号における前記任意の画像信号からの移動量に基づいて前記撮像視野内に位置する物体までの距離を演算することを特徴とする。   Further, in the distance measuring device according to the present invention, the imaging means has the first image signal group imaged through the first optical path and the second image signal group imaged through the second optical path. And the arithmetic means detects an image signal that matches an arbitrary image signal of the first image signal group from the second image signal group, and the arbitrary image in the detected image signal A distance to an object located in the imaging field of view is calculated based on a movement amount from the signal.

また、この発明にかかる距離計測装置は、前記撮像手段は、一対の光学系と、一対の光学系が出力する光信号を電気信号に変換する一対の撮像素子と、を備えたことを特徴とする。   The distance measuring device according to the present invention is characterized in that the imaging means includes a pair of optical systems and a pair of imaging elements that convert optical signals output from the pair of optical systems into electrical signals. To do.

また、この発明にかかる距離計測装置は、前記撮像手段は、一対の導光光学系と、各導光光学系に対応する撮像領域を有し各導光光学系が導いた光信号を各撮像領域において電気信号に変換する撮像素子と、を備えたことを特徴とする。   In the distance measuring device according to the present invention, the imaging means has a pair of light guide optical systems and an imaging region corresponding to each light guide optical system, and takes each optical signal guided by each light guide optical system. And an image pickup device for converting into an electric signal in the region.

また、この発明にかかる距離計測装置は、当該距離計測装置は、車両に搭載されることを特徴とする。   The distance measuring device according to the present invention is characterized in that the distance measuring device is mounted on a vehicle.

また、この発明にかかる距離計測方法は、所定範囲内に位置する物体までの距離を計測する距離計測方法において、所定の検出範囲内に位置する物体までの距離を検出する検出ステップと、少なくとも前記検出範囲を含む撮像視野に対応する画像信号群を生成する撮像ステップと、前記画像信号群に基づいて前記撮像視野に位置する物体までの距離を演算する演算ステップと、前記検出ステップにおいて検出された検出値間に前記演算ステップにおいて演算された演算値で補間した検出範囲内データと、前記検出範囲外に対応する前記演算値からなる検出範囲外データとを組み合わせた距離データを生成する補間ステップと、を含むことを特徴とする。   Further, the distance measurement method according to the present invention is a distance measurement method for measuring a distance to an object located within a predetermined range, wherein the detection step detects the distance to an object located within a predetermined detection range, An imaging step for generating an image signal group corresponding to an imaging field including a detection range, an arithmetic step for calculating a distance to an object located in the imaging field based on the image signal group, and a detection step detected An interpolation step for generating distance data by combining data within the detection range interpolated with the calculation value calculated in the calculation step between the detection values and data outside the detection range consisting of the calculation value corresponding to the outside of the detection range; , Including.

また、この発明にかかる距離計測プログラムは、所定範囲内に位置する物体までの距離を計測する距離計測プログラムにおいて、所定の検出範囲内に位置する物体までの距離を検出する検出手順と、少なくとも前記検出範囲を含む撮像視野に対応する画像信号群を生成する撮像手順と、前記画像信号群に基づいて前記撮像視野に位置する物体までの距離を演算する演算手順と、前記検出手順において検出された検出値間に前記演算手順において演算された演算値で補間した検出範囲内データと、前記検出範囲外に対応する前記演算値からなる検出範囲外データとを組み合わせた距離データを生成する補間手順と、を含むことを特徴とする。   Further, the distance measurement program according to the present invention is a distance measurement program for measuring a distance to an object located within a predetermined range, a detection procedure for detecting a distance to an object located within a predetermined detection range, and at least the above-mentioned An imaging procedure for generating an image signal group corresponding to an imaging field including a detection range, an arithmetic procedure for calculating a distance to an object located in the imaging field based on the image signal group, and detected in the detection procedure An interpolation procedure for generating distance data by combining data within the detection range interpolated with the calculation values calculated in the calculation procedure between the detection values and data outside the detection range consisting of the calculation values corresponding to outside the detection range; , Including.

本発明にかかる距離計測装置によれば、検出手段の検出値間を演算手段の演算値で補間した検出範囲内データと、検出範囲外に対応する演算値からなる検出範囲外データとを組み合わせた距離データを生成する補間手段を備えることによって、高精度で詳細な距離情報を迅速に取得することができ、この距離情報に基づいて、各種処理における警報出力などの安全運転支援処理を正確かつ的確なタイミングで行なうことが可能となる。また、本発明にかかる距離演算方法および距離演算プログラムを用いることによって、高精度で詳細な距離情報を迅速に取得することができる。   According to the distance measuring device of the present invention, the data within the detection range obtained by interpolating between the detection values of the detection means with the calculation value of the calculation means and the data outside the detection range composed of calculation values corresponding to outside the detection range are combined. By providing an interpolation means for generating distance data, it is possible to quickly acquire detailed distance information with high accuracy, and based on this distance information, safe driving support processing such as warning output in various processing is accurately and accurately performed. It is possible to carry out at a proper timing. Further, by using the distance calculation method and the distance calculation program according to the present invention, it is possible to quickly acquire detailed distance information with high accuracy.

以下、図面を参照して、この発明の実施の形態である距離計測装置について、車両に搭載される距離計測装置を例として説明する。この距離計測装置が出力する距離情報に基づいて他の装置などによる各種安全運転支援処理が行なわれる。なお、この実施の形態により、この発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付している。   Hereinafter, a distance measuring device according to an embodiment of the present invention will be described with reference to the drawings, taking a distance measuring device mounted on a vehicle as an example. Various safe driving support processes are performed by other devices based on the distance information output by the distance measuring device. In addition, this invention is not limited by this embodiment. In the description of the drawings, the same parts are denoted by the same reference numerals.

(実施の形態1)
まず、実施の形態1にかかる距離計測装置について説明する。本実施の形態1にかかる距離計測装置は、レーダの検出値間を距離演算部の演算値で補間した検出範囲内データと、検出範囲外に対応する演算値からなる検出範囲外データとを組み合わせた距離データを生成している。図1は、本実施の形態1にかかる距離情報装置の概略構成を示すブロック図である。
(Embodiment 1)
First, the distance measuring apparatus according to the first embodiment will be described. The distance measuring apparatus according to the first embodiment combines the detection range data obtained by interpolating between the detection values of the radar with the calculation value of the distance calculation unit and the out-of-detection range data including calculation values corresponding to outside the detection range. Generated distance data. FIG. 1 is a block diagram illustrating a schematic configuration of the distance information device according to the first embodiment.

図1に示すように、本実施の形態1にかかる距離計測装置1は、少なくともレーダ60の検出範囲を含む撮像視野を有し、この撮像視野に対応する画像信号群を生成する撮像部10と、撮像部10が生成した画像信号群に基づいて撮像視野内に位置する物体までの距離を演算する距離演算部20と、距離計測装置を構成する各構成部の各処理および各動作を制御する制御部30と、距離情報を含む各種情報を出力する出力部40と、距離情報を含む各種情報を記憶する記憶部50と、所定の検出範囲内に位置する物体までの距離を検出するレーダ60とを備える。撮像部10と、距離演算部20と、出力部40と、記憶部50と、レーダ60とは、制御部30に電気的に接続される。距離演算部20は、演算部21とメモリ22とを備える。制御部30は、演算範囲設定部33と時間を計測するタイマー34とを有する補間部31を備える。   As shown in FIG. 1, the distance measuring apparatus 1 according to the first embodiment has an imaging field including at least a detection range of the radar 60, and an imaging unit 10 that generates an image signal group corresponding to the imaging field. The distance calculation unit 20 that calculates the distance to the object located in the imaging field based on the image signal group generated by the imaging unit 10 and each process and operation of each component that constitutes the distance measuring device are controlled. A control unit 30, an output unit 40 that outputs various types of information including distance information, a storage unit 50 that stores various types of information including distance information, and a radar 60 that detects the distance to an object located within a predetermined detection range. With. The imaging unit 10, the distance calculation unit 20, the output unit 40, the storage unit 50, and the radar 60 are electrically connected to the control unit 30. The distance calculation unit 20 includes a calculation unit 21 and a memory 22. The control unit 30 includes an interpolation unit 31 having a calculation range setting unit 33 and a timer 34 for measuring time.

撮像部10は、右カメラ11aと左カメラ11bとを備える。右カメラ11aおよび左カメラ11bは、それぞれの撮像視野に対応した画像信号群を出力する。右カメラ11aおよび左カメラ11bは、それぞれ、レンズ12a,12bと、撮像素子13a,13bと、アナログ/デジタル(A/D)変換部14a,14bと、フレームメモリ15a,15bとを備える。レンズ12a,12bは、所定の視野角から入射する光を集光する。レンズ12a,12bにそれぞれ対応して配置される撮像素子13a,13bは、CCDまたはCMOSなどによって実現され、レンズ12a,12bを透過した光を検知してアナログ画像信号に変換する。A/D変換部14a,14bは、撮像素子13a,13bから出力されたアナログ画像信号をデジタル画像信号に変換する。フレームメモリ15a,15bは、A/D変換部14a,14bから出力されたデジタル画像信号を記憶し、1枚の撮像画像に対応するデジタル画像信号群を、撮像視野に対応する画像信号群として随時出力する。   The imaging unit 10 includes a right camera 11a and a left camera 11b. The right camera 11a and the left camera 11b output image signal groups corresponding to respective imaging fields. The right camera 11a and the left camera 11b include lenses 12a and 12b, image sensors 13a and 13b, analog / digital (A / D) converters 14a and 14b, and frame memories 15a and 15b, respectively. The lenses 12a and 12b collect light incident from a predetermined viewing angle. The image sensors 13a and 13b arranged corresponding to the lenses 12a and 12b are realized by a CCD or a CMOS, and detect the light transmitted through the lenses 12a and 12b and convert it into an analog image signal. The A / D converters 14a and 14b convert analog image signals output from the image sensors 13a and 13b into digital image signals. The frame memories 15a and 15b store digital image signals output from the A / D conversion units 14a and 14b, and a digital image signal group corresponding to one captured image is used as an image signal group corresponding to the imaging field of view as needed. Output.

距離演算部20は、撮像部10から出力された画像信号群を処理して、撮像視野内に位置する物体までの距離を演算する演算部21と、撮像部10から出力された画像信号群、演算部21が演算した演算値などを記憶するメモリ22とを備える。   The distance calculation unit 20 processes the image signal group output from the imaging unit 10 to calculate the distance to an object located in the imaging field of view, the image signal group output from the imaging unit 10, And a memory 22 for storing a calculation value calculated by the calculation unit 21.

演算部21は、ステレオ法を用いて、撮像部10から出力された画像信号群に基づいて撮像視野内に位置する物体までの距離を演算する。演算部21は、右カメラ11aから出力された右画像信号群の中から、左カメラ11bから出力された左画像信号群中における任意の画像信号と整合する画像信号を検出し、検出した画像信号における任意の画像信号からの移動量Iをもとに、三角測量の原理によって距離を演算する。ここで述べた移動量は、一般的に言われる視差量を示す。演算部21は、以下の(1)式を用いて、撮像部10から対象物体である車両Cまでの距離Rを求める。(1)式において、fはレンズ12a,12bの焦点距離であり、Lはレンズ12a,12bの光軸間の幅である。また、移動量Iは、移動した画素の数と画素ピッチとをもとに求めてもよい。
R=f・L/I・・・(1)
演算部21は、各画像信号に対応した距離Rを演算し、演算値と撮像視野内における位置情報とをそれぞれ対応させた演算データ53を制御部30に出力する。ここで、距離演算部20が出力する演算データ53は、演算範囲設定部33が設定した各演算範囲に対応した演算データ53であるため、出力される各演算データ53の演算範囲は、それぞれ異なる場合がある。なお、ここでは簡単のため、平行ステレオで説明したが、光軸が角度を持って交差したり、焦点距離がおのおの違う、撮像素子とレンズの位置関係が異なる等をキャリブレーションし、レクティフィケーションにより補正し、演算処理による平行ステレオを実現しても良い。
The computing unit 21 computes the distance to the object located in the imaging field based on the image signal group output from the imaging unit 10 using the stereo method. The computing unit 21 detects an image signal that matches an arbitrary image signal in the left image signal group output from the left camera 11b from the right image signal group output from the right camera 11a, and detects the detected image signal. The distance is calculated by the principle of triangulation based on the amount of movement I from an arbitrary image signal at. The movement amount described here indicates a parallax amount generally referred to. The calculating part 21 calculates | requires the distance R from the imaging part 10 to the vehicle C which is a target object using the following (1) Formula. In the formula (1), f is the focal length of the lenses 12a and 12b, and L is the width between the optical axes of the lenses 12a and 12b. Further, the movement amount I may be obtained based on the number of moved pixels and the pixel pitch.
R = f · L / I (1)
The calculation unit 21 calculates the distance R corresponding to each image signal, and outputs calculation data 53 in which the calculation value and the position information in the imaging field of view correspond to each other to the control unit 30. Here, since the calculation data 53 output by the distance calculation unit 20 is calculation data 53 corresponding to each calculation range set by the calculation range setting unit 33, the calculation ranges of the respective calculation data 53 to be output are different. There is a case. For simplicity, the parallel stereo is described here, but the optical axes intersect with an angle, the focal length is different, the positional relationship between the image sensor and the lens is calibrated, and so on. It is also possible to realize parallel stereo by arithmetic processing.

制御部30は、記憶部50に記憶された処理プログラムを実行するCPUなどによって実現され、撮像部10と距離演算部20と出力部40と記憶部50とレーダ60との各処理または動作を制御する。制御部30は、これらの各構成部位に入出力される情報について所定の入出力制御を行うとともに、これらの情報に対して所定の情報処理を行う。   The control unit 30 is realized by a CPU or the like that executes a processing program stored in the storage unit 50, and controls each process or operation of the imaging unit 10, the distance calculation unit 20, the output unit 40, the storage unit 50, and the radar 60. To do. The control unit 30 performs predetermined input / output control on information input / output to / from each of these components and performs predetermined information processing on the information.

補間部31は、レーダ60の検出データ51における検出値間を距離演算部20の演算値で補間した検出値内データと、レーダ60の検出範囲外に対応する演算値からなる検出範囲外データとを組み合わせた距離データ54を生成する。また、補間部31は、現処理中の検出範囲外データの取得完了までの間、前回の検出範囲外データを用いて距離データ54を作成する。また、補間部31は、レーダ60が検出値を取得する間に、検出範囲内データを取得している。   The interpolating unit 31 inter-detection value data obtained by interpolating between detection values in the detection data 51 of the radar 60 with the calculation value of the distance calculation unit 20, and out-of-detection range data composed of calculation values corresponding to outside the detection range of the radar 60. The distance data 54 combining the above is generated. Further, the interpolation unit 31 creates the distance data 54 using the previous out-of-detection range data until the completion of acquisition of the out-of-detection range data being currently processed. Further, the interpolation unit 31 acquires the data within the detection range while the radar 60 acquires the detection value.

演算範囲設定部33は、タイマー34の計時値をもとに距離演算部20における演算範囲を設定する。距離演算部20は、演算範囲設定部33が設定した演算範囲において演算処理を行なう。   The calculation range setting unit 33 sets the calculation range in the distance calculation unit 20 based on the time value of the timer 34. The distance calculation unit 20 performs calculation processing in the calculation range set by the calculation range setting unit 33.

演算範囲設定部33は、タイマー34の計時値Tが所定時間Ts未満である場合には、レーダ60の検出範囲と同範囲である演算範囲を設定する。この場合、距離演算部20は、撮像部10から出力された画像信号群のうち、演算範囲設定部33によって設定されたレーダ60の検出範囲と同範囲である演算範囲に対応する画像信号に対して演算処理を行なう。また、補間部31は、距離演算部20から出力されたレーダ60の検出範囲と同等の演算範囲に対応する各演算値で、レーダ60の検出値間を補間することによって検出範囲内データを作成し、この検出範囲内データと前回の検出範囲外データとを組み合わせて距離データ54を作成する。   The calculation range setting unit 33 sets a calculation range that is the same as the detection range of the radar 60 when the measured value T of the timer 34 is less than the predetermined time Ts. In this case, the distance calculation unit 20 applies to an image signal corresponding to a calculation range that is the same as the detection range of the radar 60 set by the calculation range setting unit 33 in the image signal group output from the imaging unit 10. To perform arithmetic processing. In addition, the interpolation unit 31 creates data within the detection range by interpolating between the detection values of the radar 60 with each calculation value corresponding to the calculation range equivalent to the detection range of the radar 60 output from the distance calculation unit 20. Then, the distance data 54 is created by combining the data within the detection range and the previous data outside the detection range.

一方、演算範囲設定部33は、タイマー34の計時値Tが所定時間Ts以上である場合には、距離演算部20が演算可能である全範囲を演算範囲として設定する。この場合、演距離演算部20は、撮像部10から出力された画像信号群における全ての画像信号に対して演算処理を行なう。補間部31は、距離演算部20から出力された演算値のうち、レーダ60の検出範囲と同等の演算範囲に対応する各演算値でレーダ60の検出値間を補間することによって検出範囲内データを作成し、この検出範囲内データと、距離演算部20から出力された演算データ53のうち検出範囲外に対応する演算値からなる検出範囲外データとを組み合わせて距離データ54を作成する。なお、所定時間Tsは、たとえば、距離演算部20の処理能力をもとに設定される。   On the other hand, when the measured value T of the timer 34 is equal to or greater than the predetermined time Ts, the calculation range setting unit 33 sets the entire range that can be calculated by the distance calculation unit 20 as the calculation range. In this case, the performance distance calculation unit 20 performs calculation processing on all image signals in the image signal group output from the imaging unit 10. The interpolation unit 31 interpolates between the detection values of the radar 60 with each calculation value corresponding to the calculation range equivalent to the detection range of the radar 60 among the calculation values output from the distance calculation unit 20. The distance data 54 is generated by combining the data within the detection range and the data outside the detection range including the calculation value corresponding to the detection range out of the calculation data 53 output from the distance calculation unit 20. The predetermined time Ts is set based on the processing capability of the distance calculation unit 20, for example.

出力部40は、液晶ディスプレイ、有機エレクトロルミネッセンスディスプレイなどによって実現され、距離情報に加え撮像部10が撮像した画像などの各種表示情報を表示出力する。また、出力部40は、スピーカをさらに備え、距離情報のほか、先行する車両Cと接近した旨を報知させる警告音声などの各種音声情報を出力する。   The output unit 40 is realized by a liquid crystal display, an organic electroluminescence display, or the like, and displays and outputs various display information such as an image captured by the imaging unit 10 in addition to the distance information. Moreover, the output part 40 is further provided with a speaker, and outputs various audio | voice information, such as a warning audio | voice which alert | reports that it approached the preceding vehicle C other than distance information.

記憶部50は、処理プログラム等の各種情報が予め記憶されたROMと、各処理の演算パラメータ、各種構成部位から出力された各種情報、書込情報、あるいは音声情報等を記憶するRAMとを備える。記憶部50は、レーダ60から出力された検出データ51、距離演算部20から出力された距離データ53を記憶する。   The storage unit 50 includes a ROM in which various types of information such as processing programs are stored in advance, and a RAM in which calculation parameters for each processing, various types of information output from various components, writing information, audio information, and the like are stored. . The storage unit 50 stores detection data 51 output from the radar 60 and distance data 53 output from the distance calculation unit 20.

レーダ60は、所定の発信波を送信し、この発信波が物体表面で反射した反射波を受信して、発信状態および受信状態をもとに、レーダ60から発信波を反射した物体までの距離と、この物体が位置する方向とを検出する。レーダ60は、発信波の送信角度、反射波の入射角度、反射波の受信強度、発信波を送信してから反射波を受信するまでの時間、反射波の周波数変化などをもとに、距離計測装置1から発信波を反射した物体までの距離を検出する。レーダ60は、検出範囲内に位置する物体までの検出距離値と、検出範囲内における位置情報とを対応させた検出データ51を制御部30に出力する。レーダ60は、発信波として、レーザ光、赤外線またはミリ波を送信する。   The radar 60 transmits a predetermined transmitted wave, receives a reflected wave reflected by the surface of the object, and a distance from the radar 60 to the object that reflects the transmitted wave based on the transmitted state and the received state. And the direction in which the object is located. The radar 60 determines the distance based on the transmission angle of the transmitted wave, the incident angle of the reflected wave, the reception intensity of the reflected wave, the time from transmission of the transmitted wave to reception of the reflected wave, frequency change of the reflected wave, and the like. The distance from the measuring device 1 to the object reflecting the transmitted wave is detected. The radar 60 outputs detection data 51 in which a detection distance value to an object located within the detection range is associated with position information within the detection range to the control unit 30. The radar 60 transmits laser light, infrared rays, or millimeter waves as a transmission wave.

つぎに、距離計測装置1が行なう処理動作のうち、補間部31が距離データ54を出力するまでの処理動作について説明する。図2は、距離計測装置1において、補間部31が距離データ54の出力を完了するまでの処理手順を示すフローチャートである。   Next, processing operations performed until the interpolation unit 31 outputs the distance data 54 among the processing operations performed by the distance measuring device 1 will be described. FIG. 2 is a flowchart showing a processing procedure until the interpolation unit 31 completes the output of the distance data 54 in the distance measuring apparatus 1.

図2に示すように、まず、補間部31は、タイマー34の計時をスタートさせる(ステップS102)。制御部30は、レーダ60に対して検出範囲内に位置する物体までの距離を検出する検出処理を指示し(ステップS104)、レーダ60は、制御部30の指示にしたがい、検出処理を行ない、検出データ51を制御部30に出力する。   As shown in FIG. 2, first, the interpolation unit 31 starts the timer 34 (step S <b> 102). The control unit 30 instructs the radar 60 to perform a detection process for detecting the distance to the object located within the detection range (step S104), and the radar 60 performs the detection process according to the instruction of the control unit 30. The detection data 51 is output to the control unit 30.

つぎに、演算範囲設定部33は、距離演算部20における演算範囲を設定する演算範囲設定処理を行なう(ステップS106)。制御部30は、撮像部10に対して撮像処理を指示し(ステップS108)、撮像部10は、制御部30の制御のもと、所定の撮像視野を撮像する撮像処理を行ない、右カメラ11aおよび左カメラ11bはそれぞれ画像信号群を出力する。その後、制御部30は、距離演算部20に対して、撮像部10から出力された画像信号群を処理して、撮像視野内に位置する物体までの距離を演算する演算処理の指示を行なう(ステップS110)。距離演算部20では、制御部30の指示を受け、演算部21は、演算範囲設定部33が設定した演算範囲に対応する各画像信号に対して、距離値をそれぞれ演算する演算処理を行なう。距離演算部20は、演算範囲に対応する各画像信号に対する演算処理が終了した後、各演算値と、撮像視野内における位置情報とを対応させた演算データ53を制御部30に対して出力する。   Next, the calculation range setting unit 33 performs calculation range setting processing for setting the calculation range in the distance calculation unit 20 (step S106). The control unit 30 instructs the imaging unit 10 to perform an imaging process (step S108), and the imaging unit 10 performs an imaging process for imaging a predetermined imaging field of view under the control of the control unit 30, and the right camera 11a. The left camera 11b outputs an image signal group. Thereafter, the control unit 30 processes the image signal group output from the imaging unit 10 and instructs the distance calculation unit 20 to calculate the distance to the object located in the imaging field of view ( Step S110). In the distance calculation unit 20, upon receiving an instruction from the control unit 30, the calculation unit 21 performs a calculation process for calculating a distance value for each image signal corresponding to the calculation range set by the calculation range setting unit 33. The distance calculation unit 20 outputs, to the control unit 30, calculation data 53 in which each calculation value and position information in the imaging field of view are associated with each other after the calculation processing on each image signal corresponding to the calculation range is completed. .

補間部31では、検出データ51の検出値間を演算データ53の対応部における演算値で補間して検出範囲内データを作成し、この検出範囲内データと検出範囲外に対応する演算値からなる検出範囲外データとを組み合わせた距離データ54を作成する補間処理を行ない(ステップS112)、補間部31は、作成した距離データ54を出力する(ステップS114)。そして、制御部30は、距離計測終了の指示が入力されたか否かを判断し(ステップS118)、距離計測終了の指示が入力されていないと判断された場合には(ステップS118:No)、ステップS104に進み、距離計測を継続する。一方、制御部30は、距離計測終了の指示が入力されたと判断した場合には(ステップS118:Yes)、タイマー34が計時中であるか否かを判断する(ステップS120)。補間部31がタイマー34が計時中でないと判断した場合には(ステップS120:No)、そのまま距離計測終了となる。また、制御部30は、タイマー34が計時中であると判断した場合には(ステップS120:Yes)、タイマー34の計時値を0に戻してリセットした後(ステップS122)、距離計測終了となる。   The interpolation unit 31 interpolates between the detection values of the detection data 51 with the calculation value in the corresponding part of the calculation data 53 to create data within the detection range, and includes the detection value data and the calculation value corresponding to outside the detection range. Interpolation processing for creating distance data 54 combined with data outside the detection range is performed (step S112), and the interpolation unit 31 outputs the created distance data 54 (step S114). And the control part 30 judges whether the instruction | indication of the end of distance measurement was input (step S118), and when it is judged that the instruction | indication of the end of distance measurement is not input (step S118: No), Proceeding to step S104, distance measurement is continued. On the other hand, when it is determined that an instruction to end distance measurement has been input (step S118: Yes), the control unit 30 determines whether or not the timer 34 is measuring time (step S120). When the interpolation unit 31 determines that the timer 34 is not measuring time (step S120: No), the distance measurement is finished as it is. Further, when the control unit 30 determines that the timer 34 is measuring time (step S120: Yes), the timer 34 returns to 0 and resets it (step S122), and then the distance measurement ends. .

つぎに、図2に示す演算範囲設定処理について説明する。図3は、図2に示す演算範囲設定処理の処理手順を示すフローチャートである。また、図4は、距離演算部20が演算可能である範囲を例示した図である。図4では、演算可能範囲とレーダ60の検出範囲とを重ね合わせるとともに、図4では、レーダ60における検出点を「●」で示している。   Next, the calculation range setting process shown in FIG. 2 will be described. FIG. 3 is a flowchart showing a processing procedure of the calculation range setting process shown in FIG. FIG. 4 is a diagram illustrating a range in which the distance calculation unit 20 can calculate. In FIG. 4, the computable range and the detection range of the radar 60 are superimposed, and in FIG. 4, the detection points in the radar 60 are indicated by “●”.

図3に示すように、演算範囲設定部33は、タイマー34の計時値Tが所定時間Ts以上であるか否かを判断する(ステップS142)。演算範囲設定部33は、タイマー34の計時値Tが所定時間Ts以上であると判断した場合には(ステップS142:Yes)、距離演算部20の演算範囲を、レーダ60の検出範囲と同範囲である領域Saおよびレーダ60の検出範囲外領域となる領域Sbに設定する(ステップS144)。具体的には、演算範囲設定部33は、図4に示すように、レーダ60の検出範囲と同範囲である領域Saおよび領域Saの外側の領域である領域Sb、すなわち、演算処理が可能である全範囲を演算範囲として設定する。補間部31は、タイマー34の計時値を0に戻してリセットし(ステップS146)。この結果、距離演算部20は、演算範囲設定部33が設定した領域Saおよび領域Sbである演算範囲に対応する各画像信号に対して、演算処理を行ない、それぞれの演算範囲に対応した演算データ53を出力する。   As illustrated in FIG. 3, the calculation range setting unit 33 determines whether or not the measured value T of the timer 34 is equal to or longer than a predetermined time Ts (step S142). If the calculation range setting unit 33 determines that the measured value T of the timer 34 is equal to or greater than the predetermined time Ts (step S142: Yes), the calculation range of the distance calculation unit 20 is the same as the detection range of the radar 60. Are set to the region Sa and the region Sb which is the region outside the detection range of the radar 60 (step S144). Specifically, as shown in FIG. 4, the calculation range setting unit 33 is capable of performing calculation processing, that is, the region Sa that is the same range as the detection range of the radar 60 and the region Sb that is the region outside the region Sa. A certain entire range is set as the calculation range. The interpolation unit 31 resets the time value of the timer 34 to 0 (step S146). As a result, the distance calculation unit 20 performs calculation processing on each image signal corresponding to the calculation range which is the region Sa and the region Sb set by the calculation range setting unit 33, and calculation data corresponding to each calculation range. 53 is output.

一方、演算範囲設定部33は、タイマー34の計時値Tが所定時間Ts以上ではない、すなわち、計時値Tが所定時間Tsに達していないと判断した場合には(ステップS142:No)、距離演算部20の演算範囲をレーダ60の検出範囲と同範囲である領域Saに設定し(ステップS148)、演算範囲設定処理を終了する。この結果、距離演算部20は、演算範囲設定部33が設定した領域Saである演算範囲に対応する各画像信号に対して、演算処理を行ない、それぞれの演算範囲に対応した演算データ53を出力する。   On the other hand, when the calculation range setting unit 33 determines that the time value T of the timer 34 is not equal to or greater than the predetermined time Ts, that is, the time value T has not reached the predetermined time Ts (step S142: No), the distance The calculation range of the calculation unit 20 is set to an area Sa that is the same as the detection range of the radar 60 (step S148), and the calculation range setting process is terminated. As a result, the distance calculation unit 20 performs calculation processing on each image signal corresponding to the calculation range that is the region Sa set by the calculation range setting unit 33, and outputs calculation data 53 corresponding to each calculation range. To do.

つぎに、図2に示す補間処理について説明する。図5は、図2に示す補間処理の処理手順を示すフローチャートである。図5に示すように、補間部31は、距離演算部20から出力された演算データ53を受信する(ステップS162)。つぎに、補間部31は、受信した演算データ53は領域Saに対応する演算結果であるか否かを判断する(ステップS164)。   Next, the interpolation process shown in FIG. 2 will be described. FIG. 5 is a flowchart showing a processing procedure of the interpolation processing shown in FIG. As illustrated in FIG. 5, the interpolation unit 31 receives the calculation data 53 output from the distance calculation unit 20 (step S162). Next, the interpolation unit 31 determines whether or not the received calculation data 53 is a calculation result corresponding to the region Sa (step S164).

補間部31は、受信した演算データ53は領域Saに対応する演算結果であると判断した場合(ステップS164:Yes)、検出データ51を抽出する(ステップS166)。その後、記憶部50から前回の検出範囲外データを含む演算データを取得し、この演算データの中から、領域Sbに対する演算結果を抽出する(ステップS168)。補間部31は、検出データ51に、距離演算部20から出力された領域Saに対応する演算結果と、記憶部50から取得した領域Sbに対応する演算結果とを補充して(ステップS170)、距離データ54を作成する。その後、タイマー34の計時をスタートさせて(ステップS172)、補間処理を終了する。   When the interpolation unit 31 determines that the received calculation data 53 is a calculation result corresponding to the region Sa (step S164: Yes), the interpolation unit 31 extracts the detection data 51 (step S166). Thereafter, calculation data including the data outside the previous detection range is acquired from the storage unit 50, and the calculation result for the region Sb is extracted from the calculation data (step S168). The interpolation unit 31 supplements the detection data 51 with the calculation result corresponding to the region Sa output from the distance calculation unit 20 and the calculation result corresponding to the region Sb acquired from the storage unit 50 (step S170). The distance data 54 is created. Thereafter, the timer 34 starts timing (step S172), and the interpolation process is terminated.

一方、補間部31は、受信した演算データ53は領域Saに対応する演算結果でないと判断した場合(ステップS164:No)、すなわち、領域Saおよび領域Sbに対応する演算結果であると判断した場合には、検出データ51を抽出し(ステップS174)、この検出データ51に、距離演算部20から出力された領域Saおよび領域Sbに対応する演算結果を補充して(ステップS176)、補間処理を終了する。   On the other hand, when the interpolation unit 31 determines that the received calculation data 53 is not the calculation result corresponding to the region Sa (step S164: No), that is, when it is determined that the calculation result corresponds to the region Sa and the region Sb. For this, the detection data 51 is extracted (step S174), and the detection data 51 is supplemented with calculation results corresponding to the areas Sa and Sb output from the distance calculation unit 20 (step S176), and interpolation processing is performed. finish.

つぎに、図5に示す補間処理について具体的に説明する。まず、図6を参照し、距離演算部20から出力された演算データ53が領域Saに対する演算結果である場合の補間処理について説明する。図6では、レーダ60によるレーダ検出点を「●」で示し、距離演算部20による演算点を「○」で示す。   Next, the interpolation process shown in FIG. 5 will be specifically described. First, with reference to FIG. 6, an interpolation process in the case where the calculation data 53 output from the distance calculation unit 20 is a calculation result for the region Sa will be described. In FIG. 6, radar detection points by the radar 60 are indicated by “●”, and calculation points by the distance calculation unit 20 are indicated by “◯”.

図6に示すように、補間部31は、距離演算部20から出力された演算データ53aが、領域Saに対する演算結果であると判断した場合には(ステップS164:Yes)、記憶部50から検出データ51aを抽出するとともに(ステップS166)、記憶部50に記憶された前回の検出範囲外データを含む演算データから、検出範囲外データ、すなわち、領域Sbに対応する演算データ53bを抽出する(ステップS168)。そして、補間部31は、検出レーダ51aの検出値間に演算データ53aの演算値を補間して検出範囲内データを作成する。この場合、距離データ54aにおける領域Saに対応する距離データが検出範囲内データとなる。また、補間部31は、この検出範囲内データと、検出範囲外に対応する領域Sbの演算データ53aとを組み合わせて距離データ54aを作成し、補間処理を終了する。   As illustrated in FIG. 6, when the interpolation unit 31 determines that the calculation data 53a output from the distance calculation unit 20 is a calculation result for the region Sa (step S164: Yes), the interpolation unit 31 detects from the storage unit 50. Data 51a is extracted (step S166), and out-of-detection range data, that is, operation data 53b corresponding to the region Sb is extracted from the operation data including the previous detection-out-range data stored in the storage unit 50 (step S166). S168). Then, the interpolating unit 31 interpolates the calculation value of the calculation data 53a between the detection values of the detection radar 51a to create data within the detection range. In this case, the distance data corresponding to the area Sa in the distance data 54a is the detection range data. Further, the interpolating unit 31 creates the distance data 54a by combining the data within the detection range and the calculation data 53a of the region Sb corresponding to the outside of the detection range, and ends the interpolation process.

一方、図7を参照し、距離演算部20から出力された演算データ53が領域Saおよび領域Sbに対する演算結果である場合の補間処理について説明する。図7では、図6と同様に、レーダ60によるレーダ検出点を「●」で示し、距離演算部20による演算点を「○」で示す。   On the other hand, with reference to FIG. 7, an interpolation process in the case where the calculation data 53 output from the distance calculation unit 20 is a calculation result for the area Sa and the area Sb will be described. In FIG. 7, similarly to FIG. 6, radar detection points by the radar 60 are indicated by “●”, and calculation points by the distance calculation unit 20 are indicated by “◯”.

図7に示すように、補間部31は、距離演算部20から出力された演算データ53cが、領域Saおよび領域Sbに対する演算結果であると判断した場合には(ステップS164:No)、検出データ51aを抽出する(ステップS174)。この場合、距離演算部20から出力された演算データ53cには、領域Sbに対応する演算結果が含まれているため、補間部31は、前回の検出範囲外データを記憶部50から抽出する必要はない。補間部31は、検出データ51aの検出値間に演算データ53cにおける領域Saの演算値を補間して検出範囲内データを作成する。そして、補間部31は、作成した検出範囲内データに、演算データ53cにおける領域Sbの演算データを検出範囲外データとして組み合わせて距離データ54bを作成し、補間処理を終了する。   As shown in FIG. 7, when the interpolation unit 31 determines that the calculation data 53c output from the distance calculation unit 20 is the calculation result for the region Sa and the region Sb (step S164: No), the detection data 51a is extracted (step S174). In this case, since the calculation data 53c output from the distance calculation unit 20 includes the calculation result corresponding to the region Sb, the interpolation unit 31 needs to extract the data outside the previous detection range from the storage unit 50. There is no. The interpolating unit 31 interpolates the calculation value of the region Sa in the calculation data 53c between the detection values of the detection data 51a to create data within the detection range. Then, the interpolating unit 31 creates the distance data 54b by combining the created data within the detection range with the calculation data of the region Sb in the calculation data 53c as data outside the detection range, and ends the interpolation processing.

このように、実施の形態1にかかる距離計測装置1では、レーダ60の検出値間を距離演算部20の演算値で補間した検出範囲内データと、レーダ60の検出範囲外に対応する演算値からなる検出範囲外データとを組み合わせた距離データを作成し、出力する。このため、本実施の形態1にかかる距離計測装置1では、広い範囲における高精度な距離情報を取得することが可能となる。   As described above, in the distance measuring apparatus 1 according to the first embodiment, the data within the detection range obtained by interpolating between the detection values of the radar 60 with the calculation value of the distance calculation unit 20, and the calculation value corresponding to outside the detection range of the radar 60. Creates and outputs distance data combining with out-of-detection range data consisting of For this reason, the distance measuring apparatus 1 according to the first embodiment can acquire highly accurate distance information in a wide range.

また、本実施の形態1では、距離演算部20は、演算範囲設定部33が設定した演算範囲にしたがい、所定時間Tsごとに撮像部10から出力された全画像信号に対して距離値を演算し、それ以外では、演算可能範囲のうちレーダ60の検出範囲と同等の領域に対応する画像信号に対して距離値を演算している。すなわち、距離演算部20は、各演算処理において、常に撮像部10から出力された全画像信号に対して距離値を演算していない。このため、距離演算部が撮像部から出力された全画像信号に対して常に距離値を演算していた従来の距離計測装置と比較し、本実施の形態1では、演算対象となる画像信号数を低減することができる。この結果、本実施の形態1にかかる距離計測装置1では、従来の距離計測装置と比較して、演算処理における処理時間を短縮することが可能となり、迅速に距離情報を取得することが可能となる。   In the first embodiment, the distance calculation unit 20 calculates a distance value for all image signals output from the imaging unit 10 every predetermined time Ts according to the calculation range set by the calculation range setting unit 33. In other cases, the distance value is calculated for an image signal corresponding to an area equivalent to the detection range of the radar 60 in the calculation range. That is, the distance calculation unit 20 does not always calculate the distance value for all image signals output from the imaging unit 10 in each calculation process. For this reason, in comparison with the conventional distance measurement device in which the distance calculation unit always calculates the distance value for all image signals output from the imaging unit, in the first embodiment, the number of image signals to be calculated Can be reduced. As a result, in the distance measuring device 1 according to the first embodiment, it is possible to shorten the processing time in the arithmetic processing as compared with the conventional distance measuring device, and it is possible to quickly acquire the distance information. Become.

また、本実施の形態1にかかる距離計測装置1は、距離データ54を作成するごとに、レーダ60の検出値間に距離演算部20の演算値を補間した検出範囲内データを出力する。すなわち、図8に示す領域Saでは、常に最新の距離情報が含まれる。このため、図9に示すように、先行車両との車間距離を計測する場合には、先行する車両Cが位置する可能性が高い領域をレーダ60の検出範囲、すなわち、領域Saとして設定した場合、車両Cが位置する可能性が高い領域が高精度領域となる。この結果、本実施の形態1では、車両Cまでの距離情報をほぼリアルタイムで取得することができ、各種安全運転支援処理をタイミングよく行なうことが可能となる。一方、本実施の形態1では、検出範囲外データは、所定時間Tsごとに作成し、所定時間Ts経過前は、前回の検出範囲外データを用いて距離データ54を作成する。このため、図8に示す領域Sbは、所定時間Tsごとに距離情報が更新される標準精度領域となる。たとえば、図9に示すように、先行車両との車間距離を計測する場合には、先行する車両が位置する可能性が低い領域を、レーダ60の検出範囲外の領域、すなわち、領域Sbとして設定した場合、車両Cが位置する可能性が低い領域が標準精度領域となる。ここで、車両Cが位置する可能性が低い領域は、車両Cが位置する可能性が高い領域と比較し、高い頻度で距離値を取得する必要がない。したがって、本実施の形態1では、車両Cが位置する可能性が低い領域を標準精度領域として設定することによって、効率よく必要な距離情報を取得することができる。   In addition, the distance measuring apparatus 1 according to the first embodiment outputs data within the detection range obtained by interpolating the calculation value of the distance calculation unit 20 between the detection values of the radar 60 every time the distance data 54 is created. That is, the latest distance information is always included in the area Sa shown in FIG. For this reason, as shown in FIG. 9, when measuring the inter-vehicle distance from the preceding vehicle, a region where the preceding vehicle C is highly likely to be located is set as the detection range of the radar 60, that is, the region Sa. The region where the vehicle C is highly likely to be located is the high accuracy region. As a result, in the first embodiment, the distance information to the vehicle C can be acquired almost in real time, and various safe driving support processes can be performed with good timing. On the other hand, in the first embodiment, the out-of-detection range data is generated every predetermined time Ts, and the distance data 54 is generated using the previous out-of-detection range data before the predetermined time Ts elapses. For this reason, the region Sb shown in FIG. 8 is a standard accuracy region in which the distance information is updated every predetermined time Ts. For example, as shown in FIG. 9, when measuring the inter-vehicle distance from the preceding vehicle, an area where the possibility of the preceding vehicle being low is set as an area outside the detection range of the radar 60, that is, the area Sb. In this case, an area where the possibility that the vehicle C is located is the standard accuracy area. Here, it is not necessary to acquire the distance value at a higher frequency in the region where the possibility that the vehicle C is located is lower than the region where the possibility that the vehicle C is located is high. Therefore, in this Embodiment 1, required distance information can be efficiently acquired by setting the area | region where the possibility that the vehicle C is low is set as a standard accuracy area | region.

したがって、本実施の形態1にかかるより計測装置1は、演算時間および演算画素の間引き、測定距離範囲の狭小化、エッジ部分のみの演算処理、距離分解能を低下化などを行うことなく、高精度で詳細な距離情報を迅速に取得することが可能であり、この結果、距離情報にもとづく各種安全支援処理をタイミングよく、正確に行うことができる。   Therefore, the measuring apparatus 1 according to the first embodiment has high accuracy without performing calculation time and calculation pixel thinning, narrowing of the measurement distance range, calculation processing of only the edge portion, reduction in distance resolution, and the like. Thus, it is possible to quickly acquire detailed distance information, and as a result, various safety support processes based on the distance information can be accurately performed with good timing.

(実施の形態2)
つぎに、実施の形態2について説明する。実施の形態1では、レーダの検出範囲が距離計測前に予め設定されていることを前提としていたが、本実施の形態2では、レーダの検出範囲が可変であり、この検出範囲が不明である場合について説明する。
(Embodiment 2)
Next, a second embodiment will be described. In the first embodiment, it is assumed that the radar detection range is set in advance before the distance measurement, but in the second embodiment, the radar detection range is variable, and this detection range is unknown. The case will be described.

図10は、本実施の形態2にかかる距離計測装置の概略構成を示すブロック図である。図10に示すように、実施の形態2にかかる距離計測装置201は、実施の形態1にかかる距離計測装置1と同様に、撮像部10と、距離演算部20と、出力部40と、記憶部50とを備える。また、距離計測装置201は、検出範囲探索部232と演算範囲設定部233とタイマー234とを有する補間部231を備えた制御部230と、制御部230の制御によって検出範囲の変更が可能であるレーダ260とを備える。   FIG. 10 is a block diagram illustrating a schematic configuration of the distance measuring apparatus according to the second embodiment. As illustrated in FIG. 10, the distance measurement device 201 according to the second embodiment is similar to the distance measurement device 1 according to the first embodiment, and includes an imaging unit 10, a distance calculation unit 20, an output unit 40, and a storage. Part 50. The distance measuring device 201 can change the detection range by the control unit 230 including the interpolation unit 231 including the detection range search unit 232, the calculation range setting unit 233, and the timer 234, and the control of the control unit 230. And a radar 260.

制御部230は、実施の形態1における制御部30と同様の機能を備える。補間部231は、実施の形態1における補間部231と同様の機能を備える。検出範囲探索部232は、レーダ260から出力された検出データ251をもとに、レーダ260の検出範囲を探索する。演算範囲設定部233は、実施の形態1における演算範囲設定部33と同様の機能を有するとともに、検出範囲探索部232の探索結果をもとに、距離演算部20の演算範囲を設定する機能を有する。タイマー234は、実施の形態1におけるタイマー34と同様に時間を計測する機能を有する。   The control unit 230 has the same function as the control unit 30 in the first embodiment. The interpolation unit 231 has the same function as the interpolation unit 231 in the first embodiment. The detection range search unit 232 searches for the detection range of the radar 260 based on the detection data 251 output from the radar 260. The calculation range setting unit 233 has the same function as the calculation range setting unit 33 in the first embodiment, and also has a function of setting the calculation range of the distance calculation unit 20 based on the search result of the detection range search unit 232. Have. The timer 234 has a function of measuring time similarly to the timer 34 in the first embodiment.

つぎに、距離計測装置201が行なう処理動作のうち、補間部231が距離データ254を出力するまでの処理手順について説明する。図11は、距離計測装置201が行なう処理動作のうち、補間部231が距離データ254を出力するまでの処理手順を示すフローチャートである。   Next, of the processing operations performed by the distance measuring device 201, a processing procedure until the interpolation unit 231 outputs the distance data 254 will be described. FIG. 11 is a flowchart showing a processing procedure until the interpolation unit 231 outputs the distance data 254 among the processing operations performed by the distance measuring device 201.

図11に示すように、まず、補間部231は、タイマー234の計時をスタートさせる(ステップS202)。次いで、制御部230は、実施の形態1と同様に、レーダ260に対して検出範囲内に位置する物体までの距離を検出する検出処理を指示し(ステップS204)、レーダ260は、検出処理を行ない、検出データ251を制御部230に出力する。   As shown in FIG. 11, first, the interpolation unit 231 starts the timer 234 (step S202). Next, as in the first embodiment, the control unit 230 instructs the radar 260 to perform a detection process for detecting the distance to the object located within the detection range (step S204), and the radar 260 performs the detection process. The detection data 251 is output to the control unit 230.

検出範囲探索部232は、レーダ60の検出範囲を探索する検出データ探索処理を行ない(ステップS208)、演算範囲設定部233は、検出範囲探索部232から出力された探索データ252を用いて、距離演算部20の演算範囲を設定する演算範囲設定処理を行なう(ステップS210)。制御部230は、実施の形態1と同様に、撮像部10に対して撮像処理を指示し(ステップS212)、撮像部10は、撮像処理を行なう。次いで、制御部230は、距離演算部20に対して演算処理を指示し(ステップS214)、距離演算部20は、撮像部10から出力された画像信号群のうち、演算範囲設定部233が設定した演算範囲に対応する各画像信号に対して距離値を演算する演算処理を行なう。そして、補間部231は、図5に示す処理手順と同様の処理手順を行なうことによって、補間処理を行ない(ステップS216)、距離データ254を出力する(ステップS218)。   The detection range search unit 232 performs detection data search processing for searching the detection range of the radar 60 (step S208), and the calculation range setting unit 233 uses the search data 252 output from the detection range search unit 232 to calculate the distance. Calculation range setting processing for setting the calculation range of the calculation unit 20 is performed (step S210). As in the first embodiment, the control unit 230 instructs the imaging unit 10 to perform an imaging process (step S212), and the imaging unit 10 performs the imaging process. Next, the control unit 230 instructs the distance calculation unit 20 to perform calculation processing (step S214), and the distance calculation unit 20 sets the calculation range setting unit 233 in the image signal group output from the imaging unit 10. An arithmetic process for calculating a distance value is performed on each image signal corresponding to the calculated range. And the interpolation part 231 performs an interpolation process by performing the process procedure similar to the process procedure shown in FIG. 5 (step S216), and outputs the distance data 254 (step S218).

制御部230は、実施の形態1と同様に、距離計測処理の終了の指示が入力されたか否かを判断し(ステップS220)、距離計測処理の終了が指示されていないと判断した場合には(ステップS220:No)、ステップS204に進み、距離計測を継続する。また、制御部230が距離計測処理の終了が指示されたと判断した場合には(ステップS220:Yes)、実施の形態1と同様に、補間部231は、タイマー234が計時中であるか否かを判断する(ステップS222)。補間部231は、タイマー234が計時中であると判断した場合には(ステップS222:Yes)、タイマー234の計時値をリセットし(ステップS224)、距離計測処理を終了し、また、タイマー234が計時中でないと判断した場合には(ステップS222:No)、そのまま距離計測処理を終了する。   As in the first embodiment, the control unit 230 determines whether or not an instruction to end the distance measurement process is input (step S220), and determines that the end of the distance measurement process is not instructed. (Step S220: No), the process proceeds to Step S204, and the distance measurement is continued. Further, when the control unit 230 determines that the end of the distance measurement process is instructed (step S220: Yes), the interpolation unit 231 determines whether the timer 234 is measuring time as in the first embodiment. Is determined (step S222). When the interpolation unit 231 determines that the timer 234 is measuring time (step S222: Yes), the interpolation unit 231 resets the time value of the timer 234 (step S224), ends the distance measurement process, and the timer 234 If it is determined that the time is not being measured (step S222: No), the distance measurement process is terminated as it is.

つぎに、図11に示す検出範囲探索処理について説明する。図12は、図11に示す検出範囲探索処理の処理手順を示すフローチャートである。図12に示すように、検出範囲探索部232は、まず、レーダ260から出力された検出データ251を参照する(ステップS232)。検出データ251では、検出範囲内に位置する物体までの距離を検出した検出値と、検出範囲内における位置情報とが対応している。このため、検出範囲探索部232は、この検出データ251を参照して、検出データ251中の位置情報をもとに、レーダ260の検出範囲を探索し(ステップS234)、探索データ252を出力する(ステップS236)。   Next, the detection range search process shown in FIG. 11 will be described. FIG. 12 is a flowchart showing a processing procedure of the detection range search process shown in FIG. As shown in FIG. 12, the detection range search unit 232 first refers to the detection data 251 output from the radar 260 (step S232). In the detection data 251, a detection value obtained by detecting a distance to an object located within the detection range corresponds to position information within the detection range. Therefore, the detection range search unit 232 searches the detection range of the radar 260 based on the position information in the detection data 251 with reference to the detection data 251 (step S234), and outputs the search data 252. (Step S236).

つぎに、図11に示す演算範囲設定処理について説明する。図13は、図11に示す演算範囲設定処理の処理手順を示すフローチャートである。図13に示すように、演算範囲設定部233は、検出範囲探索部232から出力された探索データ252を参照する(ステップS242)。つぎに、演算範囲設定部233は、探索データ252におけるレーダ260の検出範囲を領域Saとして設定する(ステップS244)。また、演算範囲設定部233は、距離演算部20が演算可能である範囲のうち、領域Sa以外の領域、すなわち、レーダ260による非検出領域を領域Sbとして設定する(ステップS246)。このため、たとえば、図14に示すように、演算可能範囲24のうち、レーダ検出範囲62aに対応する領域が領域Saとして設定され、レーダ260の検出範囲外の領域である非検出領域63が領域Sbとして設定されることとなる。   Next, the calculation range setting process shown in FIG. 11 will be described. FIG. 13 is a flowchart showing a processing procedure of the calculation range setting process shown in FIG. As illustrated in FIG. 13, the calculation range setting unit 233 refers to the search data 252 output from the detection range search unit 232 (step S242). Next, the calculation range setting unit 233 sets the detection range of the radar 260 in the search data 252 as the region Sa (step S244). In addition, the calculation range setting unit 233 sets a region other than the region Sa, that is, a non-detection region by the radar 260, as a region Sb in a range that can be calculated by the distance calculation unit 20 (step S246). For this reason, for example, as shown in FIG. 14, an area corresponding to the radar detection range 62 a in the computable range 24 is set as the area Sa, and a non-detection area 63 that is an area outside the detection range of the radar 260 is an area. It will be set as Sb.

そして、演算範囲設定部233は、タイマー234の計時値Tが所定時間Ts以上であるか否かを判断する(ステップS248)。演算範囲設定部233は、タイマー234の計時値Tが所定時間Ts以上であると判断した場合には(ステップS248:Yes)、距離演算部20の演算範囲を領域Saおよび領域Sb、すなわち、演算可能範囲全てを演算範囲として設定し(ステップS250)、タイマー234の計時値を0に戻してリセットする(ステップS252)。また、演算範囲設定部233は、タイマー234の計時値Tが所定時間Tsに達していないと判断した場合には(ステップS248:No)、距離演算部20の演算範囲を領域Saに設定する(ステップS254)。   Then, the calculation range setting unit 233 determines whether or not the measured value T of the timer 234 is equal to or longer than the predetermined time Ts (step S248). When the calculation range setting unit 233 determines that the time value T of the timer 234 is equal to or greater than the predetermined time Ts (step S248: Yes), the calculation range of the distance calculation unit 20 is set to the region Sa and the region Sb, that is, the calculation. The entire possible range is set as the calculation range (step S250), and the time value of the timer 234 is returned to 0 and reset (step S252). When the calculation range setting unit 233 determines that the time value T of the timer 234 has not reached the predetermined time Ts (step S248: No), the calculation range setting unit 233 sets the calculation range of the distance calculation unit 20 to the region Sa ( Step S254).

その後、距離演算部20は、演算範囲設定部233によって設定された演算範囲にしたがって演算処理を行ない、補間部231は、実施の形態1と同様に、距離演算部20から出力された演算データ253の演算範囲を判断して、レーダ260の検出値間を距離演算部20の演算値で補間した検出範囲内データと、レーダ260階の検出範囲外に対応する演算値からなる検出範囲外データとを組み合わせた距離データ254を作成することとなる。このため、実施の形態2にかかる距離計測装置201は、実施の形態1と同様の効果を奏することが可能となる。   Thereafter, the distance calculation unit 20 performs calculation processing according to the calculation range set by the calculation range setting unit 233, and the interpolation unit 231 calculates the calculation data 253 output from the distance calculation unit 20 as in the first embodiment. And within the detection range obtained by interpolating between the detection values of the radar 260 with the calculation value of the distance calculation unit 20, and out-of-detection range data including calculation values corresponding to the detection range outside the radar 260 floor The distance data 254 combining the above is created. For this reason, the distance measuring device 201 according to the second embodiment can achieve the same effects as those of the first embodiment.

また、演算範囲設定処理では、演算範囲設定部233が、検出範囲探索部232によって探索されたレーダ260の検出範囲に応じて、距離演算部20の演算範囲を設定することによって、図15に示すように、レーダ260の検出範囲がレーダ検出範囲62aからレーダ検出範囲62bに変化した場合であっても、このレーダ検出範囲62bに対応して演算範囲を柔軟に設定することができる。このため、本実施の形態2では、レーダ260の検出範囲が変化した場合であっても、レーダ260の検出範囲に対応する領域を常に高精度領域とした距離情報を出力することができ、高精度で詳細な距離情報を円滑に出力することが可能となる。   Further, in the calculation range setting process, the calculation range setting unit 233 sets the calculation range of the distance calculation unit 20 in accordance with the detection range of the radar 260 searched by the detection range search unit 232, as shown in FIG. As described above, even when the detection range of the radar 260 changes from the radar detection range 62a to the radar detection range 62b, the calculation range can be set flexibly corresponding to the radar detection range 62b. For this reason, in the second embodiment, even when the detection range of the radar 260 changes, distance information in which the region corresponding to the detection range of the radar 260 is always a high-precision region can be output. It becomes possible to smoothly output detailed distance information with accuracy.

なお、本実施の形態1,2では、演算範囲設定部33,233は、距離演算部20の演算範囲を設定する機能を備えた場合について説明したが、さらに、一方の画像信号群における演算対象である画像信号と整合する画像信号を他方の画像信号群から探索する際の探索範囲を、レーダ60,260の検出結果をもとに設定してもよい。演算部21は、左画像信号群の演算対象である画像信号を通過する任意の直線と同一直線上に位置する右画像信号群の各画像信号と、演算対象である画像信号とを順次比較することによって、右画像信号群の中から演算対象である画像信号と最も整合する画像信号を検出している。演算範囲設定部33,233は、左画像信号群の演算対象である画像信号を通過する任意の直線と同一直線上の右画像信号群における領域のうち、レーダ60,260の検出データをもととした所定領域を探索範囲として演算対象である画像信号ごとに設定する。距離演算部20は、演算対象である画像信号を通過する任意の直線と同一直線上に位置する右画像信号群の各画像信号のうち、演算範囲設定部33,233が設定した探索範囲に対応する画像信号の中から、演算対象である画像信号と最も整合する画像信号を検出する。   In the first and second embodiments, the calculation range setting units 33 and 233 have been described as having the function of setting the calculation range of the distance calculation unit 20, but further, the calculation target in one image signal group The search range when searching for an image signal matching the image signal from the other image signal group may be set based on the detection results of the radars 60 and 260. The calculation unit 21 sequentially compares each image signal of the right image signal group located on the same straight line as an arbitrary straight line that passes through the image signal that is the calculation target of the left image signal group, and the image signal that is the calculation target. As a result, an image signal that most closely matches the image signal to be calculated is detected from the right image signal group. The calculation range setting units 33 and 233 are based on the detection data of the radars 60 and 260 in the region in the right image signal group that is collinear with an arbitrary straight line that passes through the image signal that is the calculation target of the left image signal group. The predetermined area is set as a search range for each image signal to be calculated. The distance calculation unit 20 corresponds to the search range set by the calculation range setting units 33 and 233 among the image signals of the right image signal group located on the same straight line as an arbitrary straight line that passes through the image signal to be calculated. An image signal that most closely matches the image signal to be calculated is detected from the image signals to be processed.

以下、図16および図17を参照して、演算範囲設定部33,233が探索範囲を設定する場合について説明する。図16は、横軸に演算対象である画像信号が位置する画素行における画素列数を示し、縦軸にレーダ60,260において検出されたレーダ検出点の検出距離を示す。図17は、撮像部10から出力される右画像信号群および左画像信号群の画像信号の配列を例示する図である。以下、図16における画素列「2」に位置する画像信号について説明する。なお、図16に示す画素列「2」に位置する画像信号は、図17における左画像信号群16bの画像信号162bであるとして説明する。   Hereinafter, with reference to FIG. 16 and FIG. 17, the case where the calculation range setting units 33 and 233 set the search range will be described. In FIG. 16, the horizontal axis indicates the number of pixel columns in the pixel row where the image signal to be calculated is located, and the vertical axis indicates the detection distance of the radar detection points detected by the radars 60 and 260. FIG. 17 is a diagram illustrating the arrangement of the image signals of the right image signal group and the left image signal group output from the imaging unit 10. Hereinafter, the image signal positioned in the pixel column “2” in FIG. 16 will be described. Note that the image signal positioned in the pixel column “2” illustrated in FIG. 16 is described as the image signal 162b of the left image signal group 16b in FIG.

まず、演算範囲設定部33,233は、画像信号162bの近傍に位置するレーダ検出点161とレーダ検出点165とを通る一次関数を求める。この場合、図16に示すように、レーダ検出点161とレーダ検出点165とを通る一次関数は、直線laに対応した関数となる。演算範囲設定部33,233は、この直線laを中心として所定値eを直線laの上下に加えて形成された領域Scを求める。つぎに、演算範囲設定部33,233は、直線laが通る領域Scを距離演算部20における各画像信号に対する探索範囲として設定する。   First, the calculation range setting units 33 and 233 obtain a linear function passing through the radar detection point 161 and the radar detection point 165 located in the vicinity of the image signal 162b. In this case, as shown in FIG. 16, the linear function passing through the radar detection point 161 and the radar detection point 165 is a function corresponding to the straight line la. The calculation range setting units 33 and 233 obtain a region Sc formed by adding a predetermined value e above and below the straight line la around the straight line la. Next, the calculation range setting units 33 and 233 set a region Sc through which the straight line la passes as a search range for each image signal in the distance calculation unit 20.

たとえば、演算範囲設定部33,233は、画素列「2」に位置する画像信号162bについては、画素列「2」上における領域Sc上の距離幅Y2を求め、演算範囲設定部33,233は、この距離幅Y2に対応する領域を画像信号162bに対応する探索領域とする。たとえば、この場合、図17に示す右画像信号群16aうち、画像信号162bと同一直線上の領域S11を、画像信号162bに対応する探索範囲とする。距離演算部20は、画像信号162bと整合する画像信号を領域S11内に位置する画像信号の中から検出し、画像信号162bに対応する右画像信号群16aの画像信号と、検出した画像信号との移動量Iをもとに、距離値を演算する。この結果、図18に示すような、演算点162が得られることとなる。また、レーダ検出点165およびレーダ検出点169間に位置する画像信号に関しては、図16に示すように、レーダ検出点165,169を通る直線lbを求め、この直線lbを通る領域Sdをもとに、各画像信号に対応する探索範囲を設定すればよい。   For example, the calculation range setting units 33 and 233 obtain the distance width Y2 on the area Sc on the pixel column “2” for the image signal 162b located in the pixel column “2”, and the calculation range setting units 33 and 233 The area corresponding to the distance width Y2 is set as a search area corresponding to the image signal 162b. For example, in this case, a region S11 on the same straight line as the image signal 162b in the right image signal group 16a shown in FIG. 17 is set as a search range corresponding to the image signal 162b. The distance calculation unit 20 detects an image signal that matches the image signal 162b from among the image signals located in the region S11, the image signal of the right image signal group 16a corresponding to the image signal 162b, the detected image signal, and The distance value is calculated based on the movement amount I. As a result, a calculation point 162 as shown in FIG. 18 is obtained. As for the image signal located between the radar detection point 165 and the radar detection point 169, as shown in FIG. 16, a straight line lb passing through the radar detection points 165 and 169 is obtained, and an area Sd passing through the straight line lb is obtained. In addition, a search range corresponding to each image signal may be set.

このように、演算対象である画像信号ごとに、近接するレーダ検出点をもとに探索範囲を設定することによって、整合が検討される画像信号数が低減され、整合する画像信号を検出するために要する処理時間を短縮することが可能となる。   In this way, for each image signal to be calculated, the search range is set based on the adjacent radar detection points, thereby reducing the number of image signals to be considered for matching and detecting matching image signals. The processing time required for the process can be shortened.

また、図16では、演算範囲設定部33,233は、直線laに所定値eを加えた領域Scをもとに探索範囲を設定した場合について設定したが、図19に示す所定の確率分布に基づいて形成された領域Seをもとに探索範囲を設定してもよい。   In FIG. 16, the calculation range setting units 33 and 233 set the case where the search range is set based on the area Sc obtained by adding the predetermined value e to the straight line la, but the predetermined probability distribution shown in FIG. The search range may be set based on the region Se formed on the basis thereof.

また、演算範囲設定部33,233は、演算対象となる画像信号の近傍に位置するレーダ検出点または演算点をもとに、この演算対象となる画像信号に対応する探索範囲を設定してもよい。たとえば、演算範囲設定部33,233は、図20に示すように、画素列「2」に位置する画像信号に対して探索範囲を設定する場合、隣接するレーダ検出点161をもとに領域S2を設定し、この領域S2における距離幅Y32に対応する領域を探索範囲として設定する。また、演算範囲設定部33,233は、画素列「3」に位置する画像信号に対しては、隣接する演算点である演算点162cをもとに領域S3を設定し、この領域S3の距離幅Y33に対応する領域を探索範囲として設定する。   The calculation range setting units 33 and 233 may set a search range corresponding to the image signal to be calculated based on a radar detection point or a calculation point located in the vicinity of the image signal to be calculated. Good. For example, as shown in FIG. 20, the calculation range setting units 33 and 233 set the search range for the image signal located in the pixel row “2”, based on the adjacent radar detection point 161, the region S <b> 2. And an area corresponding to the distance width Y32 in the area S2 is set as a search range. In addition, the calculation range setting units 33 and 233 set a region S3 based on a calculation point 162c that is an adjacent calculation point for an image signal located in the pixel column “3”, and the distance of the region S3. An area corresponding to the width Y33 is set as a search range.

また、本実施の形態1,2では、撮像部10において撮像された画像情報群における位置関係とレーダ60,260における検出範囲における位置関係との整合は、以下のように予め求めたうえで各処理を行う。たとえば、距離計測装置1,201は、形状が既知の物体に対して、撮像部10における撮像処理およびレーダ60,260における検出処理を行い、撮像部10における既知の物体の位置およびレーダ60,260における既知の物体の位置を求める。その後、距離計測装置1,201では、最小2乗法などを用いて、撮像部10における既知の物体の位置およびレーダ60,260における既知の物体の位置の関係を求め、撮像部10において撮像された画像情報群における位置関係とレーダ60,260における検出範囲における位置関係とを整合する。   In the first and second embodiments, the alignment between the positional relationship in the image information group captured by the imaging unit 10 and the positional relationship in the detection range in the radars 60 and 260 is obtained in advance as follows. Process. For example, the distance measuring devices 1 and 201 perform imaging processing in the imaging unit 10 and detection processing in the radars 60 and 260 on an object having a known shape, and the positions of the known objects in the imaging unit 10 and the radars 60 and 260. Find the position of a known object at. Thereafter, the distance measuring devices 1 and 201 obtain the relationship between the position of the known object in the imaging unit 10 and the position of the known object in the radars 60 and 260 using the least square method, and the image is captured in the imaging unit 10. The positional relationship in the image information group and the positional relationship in the detection range of the radars 60 and 260 are matched.

また、距離計測装置1,201では、撮像部10の撮像原点とレーダ60,260の検出原点とがずれている場合があっても、撮像点および検出点から距離計測装置1,201までの距離が十分に離れていた場合であれば、撮像原点と検出原点とがほぼ重なっているものとみなすことができる。さらに、撮像部10において撮像された画像情報群における位置関係とレーダ60,260における検出範囲における位置関係との整合が正確に行われている場合には、幾何変換によって、撮像原点と検出原点とのずれを補正することも可能である。   Further, in the distance measuring devices 1 and 201, even if the imaging origin of the imaging unit 10 and the detection origins of the radars 60 and 260 are misaligned, the distance from the imaging point and the detection point to the distance measuring devices 1 and 201 Can be regarded as substantially overlapping the imaging origin and the detection origin. Furthermore, when the positional relationship in the image information group captured by the imaging unit 10 and the positional relationship in the detection range in the radars 60 and 260 are accurately matched, the imaging origin and the detection origin are detected by geometric transformation. It is also possible to correct the deviation.

また、実施の形態1,2にかかる距離計測装置1,201では、各画像信号が位置する画素行に各レーダ検出点が所定間隔で位置する場合について説明したが、必ずしも、撮像部10から出力された各画像信号が位置する画素行に各レーダ検出点が存在するとは限らない。この場合、補間部31は、各画像信号の近傍に位置する複数のレーザ検出点をもとに、一次補間法などを用いて判定対象および修正対象となる各画像信号と同一画素行のレーザ補間値を求め、この補間値を用いればよい。   Further, in the distance measuring apparatuses 1 and 201 according to the first and second embodiments, the case where each radar detection point is located at a predetermined interval in the pixel row where each image signal is located has been described. Each radar detection point does not necessarily exist in a pixel row where each image signal is positioned. In this case, the interpolation unit 31 performs laser interpolation on the same pixel row as each image signal to be determined and corrected using a primary interpolation method or the like based on a plurality of laser detection points located in the vicinity of each image signal. A value is obtained and this interpolation value may be used.

また、本実施の形態1,2における撮像部として、一対のレンズ12a,12bのそれぞれに対応する一対の撮像素子13a,13bを備えた撮像部10について説明したが、これに限らず、図21に示すように、一対の導光光学系と、各導光光学系に対応する撮像領域を有し各導光光学系が導いた光信号を各撮像領域において電気信号に変換する撮像素子を備えた撮像部110としてもよい(たとえば、本出願人による特開平8−171151参照)。図21に示すように、撮像部110は、一対のミラー111a,111bと、ミラー111a,111bのそれぞれに対応するミラー112a,112bと、レンズ112cと、レンズ112cによって集光された光をアナログ画像信号に変換する撮像素子113と、撮像素子113から出力されたアナログ画像信号をデジタル画像信号に変更するA/D変換部114と、デジタル信号を記憶するフレームメモリ115とを備える。ミラー111a,111bは、車両Cなどの被写体からの光を受光し、ミラー112a,112bは、ミラー111a,111bが受光した光をレンズ112cに反射する。このため、撮像素子113上には、各光学系に対応する画像がそれぞれ結像される。したがって、撮像部110は、図22に示すように、画像116aと画像116bとを含む画像116を出力する。このような画像116a,116bをもとに、距離演算部20において、各画像信号に対応する距離値を演算することが可能である。   Further, the imaging unit 10 including the pair of imaging elements 13a and 13b corresponding to each of the pair of lenses 12a and 12b has been described as the imaging unit in the first and second embodiments. As shown in FIG. 1, the image pickup device includes a pair of light guide optical systems and an imaging element that has an imaging region corresponding to each light guide optical system and converts an optical signal guided by each light guide optical system into an electrical signal in each image pickup region. Alternatively, the imaging unit 110 may be used (see, for example, Japanese Patent Laid-Open No. 8-171151 by the present applicant). As illustrated in FIG. 21, the imaging unit 110 converts a pair of mirrors 111a and 111b, mirrors 112a and 112b corresponding to the mirrors 111a and 111b, a lens 112c, and light collected by the lens 112c into an analog image. An image sensor 113 that converts the signal into a signal, an A / D converter 114 that changes an analog image signal output from the image sensor 113 into a digital image signal, and a frame memory 115 that stores the digital signal are provided. The mirrors 111a and 111b receive light from a subject such as the vehicle C, and the mirrors 112a and 112b reflect the light received by the mirrors 111a and 111b to the lens 112c. Therefore, an image corresponding to each optical system is formed on the image sensor 113. Therefore, the imaging unit 110 outputs an image 116 including an image 116a and an image 116b as shown in FIG. Based on such images 116a and 116b, the distance calculation unit 20 can calculate the distance value corresponding to each image signal.

また、本実施の形態1,2では、複数のカメラを備えた距離計測装置1,201について説明したが、これに限らず、単数のカメラを備えた距離計測装置に適用してもよい。この場合、距離演算部20は、撮像部から出力された画像信号群をもとに、たとえば、シェイプフロムフォーカス法、シェイプフロムデフォーカス法、シェイプフロムモーション法またはシェイプフロムシェーディング法を用いて撮像視野内の距離を演算する。なお、シェイプフロムフォーカス法とは、最もよく合焦したときのフォーカス位置から距離を求める方法である。また、シェイプフロムデフォーカス法とは、合焦距離の異なる複数の画像から相対的なぼけ量を求め、ぼけ量と距離との相関関係をもとに距離を求める方法である。また、シェイプフロムモーション法とは、時間的に連続する複数の画像における所定の特徴点の移動軌跡をもとに物体までの距離を求める方法である。また、シェイプフロムシェーディング法とは、画像における陰影、対象となる物体の反射特性および光源情報をもとに物体までの距離を求める方法である。   In the first and second embodiments, the distance measuring devices 1 and 201 provided with a plurality of cameras have been described. However, the present invention is not limited to this, and may be applied to a distance measuring device provided with a single camera. In this case, the distance calculation unit 20 uses, for example, a shape from focus method, a shape from defocus method, a shape from motion method, or a shape from shading method based on the image signal group output from the imaging unit. Calculate the distance within. The shape from focus method is a method for obtaining a distance from a focus position when the focus is best achieved. The shape from defocus method is a method of obtaining a relative blur amount from a plurality of images having different in-focus distances and obtaining a distance based on a correlation between the blur amount and the distance. The shape from motion method is a method for obtaining a distance to an object on the basis of the movement trajectory of a predetermined feature point in a plurality of temporally continuous images. The shape-from-shading method is a method for obtaining a distance to an object based on shading in an image, reflection characteristics of a target object, and light source information.

また、撮像部10は、いわゆる3眼ステレオカメラ構造を構成してもよく、また、いわゆる4眼ステレオカメラ構造を構成してもよい。3眼ステレオカメラ構造または4眼ステレオカメラ構造である撮像部とした場合、3次元再構成処理などを行なうことによって、信頼性が高く、安定した距離演算結果を得ることができる距離計測装置を実現することが可能となる。特に、複数のカメラを2方向の基線長を持つように配置した場合、複数の物体が複雑な構成で配置する場合であっても、3次元再構成処理が可能となり、安定して距離演算結果を得ることができる。また、この場合、一方向の基線長方向にカメラを複数配置するマルチベースライン方式を採用することが可能となり、高精度の距離計測を実現することができる。   The imaging unit 10 may constitute a so-called trinocular stereo camera structure, or may constitute a so-called four-eye stereo camera structure. When the imaging unit has a three-eye stereo camera structure or a four-eye stereo camera structure, a distance measurement device that can obtain a reliable and stable distance calculation result by performing a three-dimensional reconstruction process or the like is realized. It becomes possible to do. In particular, when a plurality of cameras are arranged so as to have a baseline length in two directions, even when a plurality of objects are arranged in a complicated configuration, three-dimensional reconstruction processing is possible, and the distance calculation result is stable. Can be obtained. In this case, it is possible to employ a multi-baseline method in which a plurality of cameras are arranged in the base length direction in one direction, and highly accurate distance measurement can be realized.

また、本実施の形態1,2では、レーダ60,260を備えた距離計測装置1,201について説明したが、レーダ60,260に代えて、赤外光または可視光を送信する半導体レーザ素子、発光ダイオードまたはレーザダイオード等の光源と、物体からの反射光を受信するフォトセンサ等の受光素子などによって実現された検出器を備えた距離計測装置であってもよいし、光波、マイクロ波、ミリ波、超音波等を利用して反射波の遅れから距離を計測するレーダ型検出器を備えた距離計測装置であってもよい。   In the first and second embodiments, the distance measuring devices 1 and 201 including the radars 60 and 260 have been described. However, instead of the radars 60 and 260, semiconductor laser elements that transmit infrared light or visible light, It may be a distance measuring device including a light source such as a light emitting diode or a laser diode and a detector realized by a light receiving element such as a photosensor that receives reflected light from an object, or may be a light wave, microwave, millimeter A distance measuring device including a radar-type detector that measures a distance from a delay of a reflected wave using waves, ultrasonic waves, or the like may be used.

また、本実施の形態1,2として、車両に搭載される距離計測装置1,201を例に説明したが、これに限らず、他の移動体に搭載される距離計測装置に対して適用してもよい。また、移動体に搭載される距離計測装置に限らず、たとえば、所定位置に固定した状態で検出範囲内の距離計測を行なう距離計測装置に適用してもよい。   Further, as the first and second embodiments, the distance measuring devices 1 and 201 mounted on the vehicle have been described as an example. May be. Further, the present invention is not limited to the distance measuring device mounted on the moving body, and may be applied to a distance measuring device that measures the distance within the detection range in a state of being fixed at a predetermined position, for example.

実施の形態1にかかる距離計測装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a distance measuring apparatus according to a first embodiment. 図1に示す距離計測装置において距離データの出力を完了するまでの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence until the output of distance data is completed in the distance measuring device shown in FIG. 図2に示す演算範囲設定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the calculation range setting process shown in FIG. 図3に示す演算範囲設定処理を説明する図である。It is a figure explaining the calculation range setting process shown in FIG. 図2に示す補間処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the interpolation process shown in FIG. 図2に示す補間処理を説明する図である。It is a figure explaining the interpolation process shown in FIG. 図2に示す補間処理を説明する図である。It is a figure explaining the interpolation process shown in FIG. 図1に示す距離データを説明する図である。It is a figure explaining the distance data shown in FIG. 図1に示す撮像部が撮像した画像の一例を示す図である。It is a figure which shows an example of the image which the imaging part shown in FIG. 1 imaged. 実施の形態2にかかる距離計測装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the distance measuring device concerning Embodiment 2. FIG. 図10に示す距離計測装置において距離データの出力を完了するまでの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence until the output of distance data is completed in the distance measuring device shown in FIG. 図11に示す検出範囲探索処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the detection range search process shown in FIG. 図11に示す演算範囲設定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the calculation range setting process shown in FIG. 図11に示す演算範囲設定処理を説明する図である。It is a figure explaining the calculation range setting process shown in FIG. 図11に示す演算範囲設定処理を説明する図である。It is a figure explaining the calculation range setting process shown in FIG. 図1および図10に示す演算範囲設定部の他の機能を説明する図である。It is a figure explaining the other function of the calculation range setting part shown in FIG. 1 and FIG. 図1および図10に示す撮像部から出力された画像信号群の配列を例示する図である。It is a figure which illustrates the arrangement | sequence of the image signal group output from the imaging part shown in FIG. 1 and FIG. 図1および図10に示す演算範囲設定部の他の機能を説明する図である。It is a figure explaining the other function of the calculation range setting part shown in FIG. 1 and FIG. 図1および図10に示す演算範囲設定部の他の機能を説明する図である。It is a figure explaining the other function of the calculation range setting part shown in FIG. 1 and FIG. 図1および図10に示す演算範囲設定部の他の機能を説明する図である。It is a figure explaining the other function of the calculation range setting part shown in FIG. 1 and FIG. 図1に示す撮像部の概略構成の他の例を示すブロック図である。It is a block diagram which shows the other example of schematic structure of the imaging part shown in FIG. 図21に示す撮像部から出力される画像の一例を示す図である。It is a figure which shows an example of the image output from the imaging part shown in FIG.

符号の説明Explanation of symbols

1、201 距離計測装置
10 110 撮像部
11a 右カメラ
11b 左カメラ
12a、12b、112c レンズ
13a、13b、113 撮像素子
14a、14b、114 A/D変換部
15a、15b、115 フレームメモリ
16、116、116a、116b 画像
20 距離演算部
24 演算可能範囲
21 演算部
22 メモリ
30、230 制御部
31、231 補間部
33、233 演算範囲設定部
34、234 タイマー
40 出力部
50 記憶部
51、51a、251 検出データ
53、53a、53b、253 演算データ
54、54a、54b、254 距離データ
60、260 レーダ
62、62a、62b レーダ検出範囲
63 非検出範囲
16a 右画像信号群
16b 左画像信号群
162b 画像信号
232 検出範囲探索部
252 探索データ
111a、111b、112a、112b ミラー
C 車両
1, 201 Distance measuring device 10 110 Imaging unit 11a Right camera 11b Left camera 12a, 12b, 112c Lens 13a, 13b, 113 Imaging element 14a, 14b, 114 A / D conversion unit 15a, 15b, 115 Frame memory 16, 116, 116a, 116b Image 20 Distance calculation unit 24 Computable range 21 Calculation unit 22 Memory 30, 230 Control unit 31, 23 Interpolation unit 33, 233 Calculation range setting unit 34, 234 Timer 40 Output unit 50 Storage unit 51, 51a, 251 Detection Data 53, 53a, 53b, 253 Calculation data 54, 54a, 54b, 254 Distance data 60, 260 Radar 62, 62a, 62b Radar detection range 63 Non-detection range 16a Right image signal group 16b Left image signal group 162b Image signal 232 detection Range search part 252 Search data 111a, 111b, 112a, 112b Mirror C Vehicle

Claims (10)

所定の検出範囲内に位置する物体までの距離を検出する検出手段と、
少なくとも前記検出範囲を含む撮像視野を有し前記撮像視野に対応する画像信号群を生成する撮像手段と、
前記画像信号群に基づいて前記撮像視野内に位置する物体までの距離を演算する演算手段と、
前記検出手段の検出値間を前記演算手段の演算値で補間した検出範囲内データと、前記検出範囲外に対応する前記演算値からなる検出範囲外データとを組み合わせた距離データを生成する補間手段と、
を備えたことを特徴とする距離計測装置。
Detecting means for detecting a distance to an object located within a predetermined detection range;
An imaging unit having an imaging field including at least the detection range and generating an image signal group corresponding to the imaging field;
A computing means for computing a distance to an object located in the imaging field based on the image signal group;
Interpolating means for generating distance data by combining data within the detection range obtained by interpolating between the detection values of the detection means with the calculation value of the calculation means and data outside the detection range consisting of the calculation value corresponding to outside the detection range When,
A distance measuring device comprising:
前記補間手段は、現処理中の前記検出範囲外データの取得完了までの間、前回の前記検出範囲外データを用いて前記距離データを生成することを特徴とする請求項1に記載の距離計測装置。   2. The distance measurement according to claim 1, wherein the interpolation unit generates the distance data by using the previous out-of-detection range data until completion of acquisition of the out-of-detection range data being currently processed. apparatus. 前記補間手段は、前記検出手段が前記検出値を取得する間に、前記検出範囲内データを取得することを特徴とする請求項1または2に記載の距離計測装置。   The distance measuring apparatus according to claim 1, wherein the interpolation unit acquires the data within the detection range while the detection unit acquires the detection value. 前記検出手段の検出範囲を探索する検出範囲探索手段を備え、
前記補間手段は、前記検出範囲探索手段の探索結果に基づいて前記検出範囲内データおよび前記検出範囲外データを取得することを特徴とする請求項1〜3のいずれか一つに記載の距離計測装置。
A detection range search means for searching a detection range of the detection means;
The distance measurement according to any one of claims 1 to 3, wherein the interpolation unit acquires the data within the detection range and the data outside the detection range based on a search result of the detection range search unit. apparatus.
前記撮像手段は、第1の光路を介して撮像した第1の前記画像信号群と、第2の光路を介して撮像した第2の前記画像信号群とを生成し、
前記演算手段は、前記第2の画像信号群の中から前記第1の画像信号群の任意の画像信号と整合する画像信号を検出し、検出した画像信号における前記任意の画像信号からの移動量に基づいて前記撮像視野内に位置する物体までの距離を演算することを特徴とする請求項1〜4のいずれか一つに記載の距離計測装置。
The imaging means generates a first group of image signals captured through a first optical path and a second group of image signals captured through a second optical path;
The calculation means detects an image signal that matches an arbitrary image signal of the first image signal group from the second image signal group, and a movement amount of the detected image signal from the arbitrary image signal The distance measuring device according to claim 1, wherein a distance to an object located in the imaging field of view is calculated based on the distance.
前記撮像手段は、
一対の光学系と、
一対の光学系が出力する光信号を電気信号に変換する一対の撮像素子と、
を備えたことを特徴とする請求項1〜5のいずれか一つに記載の距離計測装置。
The imaging means includes
A pair of optical systems;
A pair of image sensors that convert optical signals output by the pair of optical systems into electrical signals;
The distance measuring device according to any one of claims 1 to 5, further comprising:
前記撮像手段は、
一対の導光光学系と、
各導光光学系に対応する撮像領域を有し各導光光学系が導いた光信号を各撮像領域において電気信号に変換する撮像素子と、
を備えたことを特徴とする請求項1〜5のいずれか一つに記載の距離計測装置。
The imaging means includes
A pair of light guiding optical systems;
An imaging device that has an imaging region corresponding to each light guide optical system and converts an optical signal guided by each light guide optical system into an electrical signal in each imaging region;
The distance measuring device according to any one of claims 1 to 5, further comprising:
当該距離計測装置は、車両に搭載されることを特徴とする請求項1〜7のいずれか一つに記載の距離計測装置。   The distance measuring apparatus according to claim 1, wherein the distance measuring apparatus is mounted on a vehicle. 所定範囲内に位置する物体までの距離を計測する距離計測方法において、
所定の検出範囲内に位置する物体までの距離を検出する検出ステップと、
少なくとも前記検出範囲を含む撮像視野に対応する画像信号群を生成する撮像ステップと、
前記画像信号群に基づいて前記撮像視野に位置する物体までの距離を演算する演算ステップと、
前記検出ステップにおいて検出された検出値間に前記演算ステップにおいて演算された演算値で補間した検出範囲内データと、前記検出範囲外に対応する前記演算値からなる検出範囲外データとを組み合わせた距離データを生成する補間ステップと、
を含むことを特徴とする距離計測方法。
In a distance measurement method for measuring the distance to an object located within a predetermined range,
A detection step of detecting a distance to an object located within a predetermined detection range;
An imaging step for generating an image signal group corresponding to an imaging field including at least the detection range;
A calculation step of calculating a distance to an object located in the imaging field based on the image signal group;
A distance obtained by combining the detection range data interpolated with the calculation value calculated in the calculation step between the detection values detected in the detection step and the detection range data composed of the calculation value corresponding to the outside of the detection range An interpolation step to generate data;
A distance measurement method comprising:
所定範囲内に位置する物体までの距離を計測する距離計測プログラムにおいて、
所定の検出範囲内に位置する物体までの距離を検出する検出手順と、
少なくとも前記検出範囲を含む撮像視野に対応する画像信号群を生成する撮像手順と、
前記画像信号群に基づいて前記撮像視野に位置する物体までの距離を演算する演算手順と、
前記検出手順において検出された検出値間に前記演算手順において演算された演算値で補間した検出範囲内データと、前記検出範囲外に対応する前記演算値からなる検出範囲外データとを組み合わせた距離データを生成する補間手順と、
を含むことを特徴とする距離計測プログラム。
In a distance measurement program that measures the distance to an object located within a predetermined range,
A detection procedure for detecting a distance to an object located within a predetermined detection range;
An imaging procedure for generating an image signal group corresponding to an imaging field including at least the detection range;
A calculation procedure for calculating a distance to an object located in the imaging field based on the image signal group,
A distance obtained by combining the detection range data interpolated with the calculation value calculated in the calculation procedure between the detection values detected in the detection procedure and the detection range data including the calculation value corresponding to the detection range outside the detection range An interpolation procedure to generate data;
The distance measurement program characterized by including.
JP2005147174A 2005-05-19 2005-05-19 Ranging device, ranging technique, and ranging program Withdrawn JP2006322852A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005147174A JP2006322852A (en) 2005-05-19 2005-05-19 Ranging device, ranging technique, and ranging program
PCT/JP2006/309664 WO2006123615A1 (en) 2005-05-19 2006-05-15 Distance measuring apparatus, distance measuring method and distance measuring program
EP06732595A EP1887382A1 (en) 2005-05-19 2006-05-15 Distance measuring apparatus, distance measuring method and distance measuring program
US11/985,991 US7656508B2 (en) 2005-05-19 2007-11-19 Distance measuring apparatus, distance measuring method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005147174A JP2006322852A (en) 2005-05-19 2005-05-19 Ranging device, ranging technique, and ranging program

Publications (1)

Publication Number Publication Date
JP2006322852A true JP2006322852A (en) 2006-11-30

Family

ID=37542639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005147174A Withdrawn JP2006322852A (en) 2005-05-19 2005-05-19 Ranging device, ranging technique, and ranging program

Country Status (1)

Country Link
JP (1) JP2006322852A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018021776A (en) * 2016-08-02 2018-02-08 株式会社リコー Parallax calculation system, mobile body, and program
JP2019050035A (en) * 2014-04-25 2019-03-28 ウェイモ エルエルシー Methods and systems for object detection using laser point clouds
JP2019219353A (en) * 2018-06-22 2019-12-26 株式会社長浜製作所 Testing device for tire or wheel with tire
CN115331446A (en) * 2022-10-13 2022-11-11 浙江云针信息科技有限公司 Vehicle safe driving strategy generation method and device, storage medium and terminal

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019050035A (en) * 2014-04-25 2019-03-28 ウェイモ エルエルシー Methods and systems for object detection using laser point clouds
JP2018021776A (en) * 2016-08-02 2018-02-08 株式会社リコー Parallax calculation system, mobile body, and program
JP2019219353A (en) * 2018-06-22 2019-12-26 株式会社長浜製作所 Testing device for tire or wheel with tire
CN115331446A (en) * 2022-10-13 2022-11-11 浙江云针信息科技有限公司 Vehicle safe driving strategy generation method and device, storage medium and terminal

Similar Documents

Publication Publication Date Title
US7656508B2 (en) Distance measuring apparatus, distance measuring method, and computer program product
JP2006322853A (en) Distance measuring device, distance measuring method and distance measuring program
JP4918676B2 (en) Calibration apparatus and calibration method
JP2020003236A (en) Distance measurement device, moving body, distance measurement method, and distance measurement system
US10262242B2 (en) Image scanning system and image scanning method
US11610286B2 (en) Techniques for point cloud filtering
JP6589926B2 (en) Object detection device
CN111045000A (en) Monitoring system and method
EP3514759B1 (en) Image processing method and image processing apparatus
JP2006322797A (en) Apparatus, method, and program for processing image
KR102135177B1 (en) Method and apparatus for implemeting active imaging system
JP4712562B2 (en) Vehicle front three-dimensional object recognition device
JP2011013064A (en) Position detection device
JP2006322795A (en) Image processing device, image processing method and image processing program
EP3471063A1 (en) Three-dimensional imaging method and system
JP2006323693A (en) Processor, and method and program for processing image
KR101674298B1 (en) Method for distance calculation using a camera lens focal length information
JP2006322852A (en) Ranging device, ranging technique, and ranging program
CN108061902A (en) A kind of method and device of detecting object
EP2913999A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
CN108061905A (en) A kind of pavement behavior detection method and device
CN107924570A (en) Method for the vision system and control vision system of motor vehicles
JP2007240275A (en) Range finder/imaging device, range finding method/imaging method, range finding program/imaging program and recording medium
JP6519138B2 (en) PARALLEL VALUE DERIVING DEVICE, MOBILE OBJECT, ROBOT, PARALLEL VALUE PRODUCTION METHOD, AND PROGRAM
JP2006322856A (en) Distance measuring device, distance measuring method and distance measuring program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805