JP2009258015A - Apparatus and method for generating range image data for vehicle - Google Patents

Apparatus and method for generating range image data for vehicle Download PDF

Info

Publication number
JP2009258015A
JP2009258015A JP2008109336A JP2008109336A JP2009258015A JP 2009258015 A JP2009258015 A JP 2009258015A JP 2008109336 A JP2008109336 A JP 2008109336A JP 2008109336 A JP2008109336 A JP 2008109336A JP 2009258015 A JP2009258015 A JP 2009258015A
Authority
JP
Japan
Prior art keywords
distance
image data
imaging
pixel
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008109336A
Other languages
Japanese (ja)
Inventor
Mitsuo Hagyuda
満夫 萩生田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marelli Corp
Original Assignee
Calsonic Kansei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Calsonic Kansei Corp filed Critical Calsonic Kansei Corp
Priority to JP2008109336A priority Critical patent/JP2009258015A/en
Publication of JP2009258015A publication Critical patent/JP2009258015A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus and method for generating range image data for vehicles, capable of continuously grasping a situation ahead of own vehicle. <P>SOLUTION: The apparatus includes a projector 5, image intensifier 7b, a high-speed camera 8, a timing controller 9 for controlling the image intensifier and the high-speed camera, and an image processing section 10 which generates range image data representing a distance to an object per pixel, based on brightness of an identical pixel in a plurality of pick-up images with different target distances obtained from the image intensifier 7b and the high-speed camera 8. The image processing section 10 is always luminescent and provided with a processing step S5 for eliminating pixel data existing in all pick-up images as noise. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両用距離画像データ生成装置の技術分野に属する。   The present invention belongs to the technical field of a vehicle distance image data generation device.

特許文献1には、自車両前方を投光し、ターゲット距離から戻ってくる反射光のタイミングに合わせて撮像した画像に基づいて、当該ターゲット距離に障害物等の物体が存在するか否かを検出する技術が開示されている。
米国特許第6700123号明細書
In Patent Literature 1, whether or not an object such as an obstacle exists at the target distance is based on an image that is projected in accordance with the timing of reflected light that is projected in front of the host vehicle and returned from the target distance. Techniques for detection are disclosed.
US Pat. No. 6,732,123

しかしながら、上記従来技術にあっては、ターゲット距離以外の物体を検出できない。つまり、状況の把握が間欠的であり、自車両前方の状況を連続的に把握できないという問題があった。   However, in the above prior art, objects other than the target distance cannot be detected. That is, there is a problem that the situation is intermittently grasped and the situation ahead of the host vehicle cannot be grasped continuously.

本発明の目的は、自車両前方の状況を連続的に把握できる車両用距離画像データ生成装置および車両用距離画像データの生成方法を提供することにある。   An object of the present invention is to provide a vehicular distance image data generation apparatus and a vehicular distance image data generation method capable of continuously grasping the situation ahead of the host vehicle.

上記目的を達成するため、本発明の車両用距離画像データ生成装置では、
自車両前方に所定周期でパルス光を投光する投光手段と、ターゲット距離に応じて設定される撮像タイミングで前記ターゲット距離から帰ってくる反射光を撮像する撮像手段と、前記ターゲット距離が連続的に変化するように前記撮像タイミングを制御するタイミング制御手段と、前記撮像手段により得られたターゲット距離の異なる複数の撮像画像における同一画素の輝度に基づいて、画素毎の物体までの距離を表す距離画像データを生成する距離画像データ生成手段と、を備え、前記距離画像データ生成手段は、常時発光しているために全ての撮像画像に存在する画素データを、ノイズとして除去するノイズ除去手段を備えた、ことを特徴とする。
In order to achieve the above object, in the vehicle distance image data generation device of the present invention,
A projection unit that projects pulsed light in front of the host vehicle at a predetermined period, an imaging unit that captures reflected light returning from the target distance at an imaging timing set according to the target distance, and the target distance are continuous. Represents the distance to the object for each pixel based on the luminance of the same pixel in a plurality of captured images with different target distances obtained by the imaging means, and a timing control means for controlling the imaging timing so as to change A distance image data generating means for generating distance image data, and the distance image data generating means is a noise removing means for removing pixel data existing in all captured images as noise because it always emits light. It is characterized by having.

よって、本発明にあっては、ターゲット距離の異なる複数の撮像画像における同一画素の輝度に基づいて、画素毎の物体までの距離を表す距離画像データを生成するため、自車両前方の状況を連続的に把握できる。   Therefore, in the present invention, since the distance image data representing the distance to the object for each pixel is generated based on the luminance of the same pixel in the plurality of captured images having different target distances, the situation in front of the host vehicle is continuously displayed. Can be grasped.

以下、本発明の車両用距離画像データ生成装置および車両用距離画像データの生成方法を実現するための最良の形態を、図面に基づく実施例により説明する。   The best mode for realizing the vehicle distance image data generating apparatus and the vehicle distance image data generating method of the present invention will be described below with reference to the drawings.

まず、構成を説明する。
図1は、本発明の車両用距離画像データ生成装置を適用した実施例1の障害物検出装置1の構成を示すブロック図であり、実施例1の障害物検出装置1は、距離画像データ生成装置2と、物体認識処理部3と、判断部4とを備えている。
First, the configuration will be described.
FIG. 1 is a block diagram illustrating a configuration of an obstacle detection apparatus 1 according to a first embodiment to which the vehicle distance image data generation apparatus according to the present invention is applied. The obstacle detection apparatus 1 according to the first embodiment generates distance image data. A device 2, an object recognition processing unit 3, and a determination unit 4 are provided.

距離画像データ生成装置2は、投光器(投光手段)5と、対物レンズ6と、光増倍部7と、高速度カメラ(撮像手段)8と、タイミングコントローラ(タイミング制御手段)9と、画像処理部(距離画像データ生成手段)10とを備えている。
投光器5は、車両の前端部に配置した近赤外線LEDであり、タイミングコントローラ9から出力されるパルス信号に応じて、所定の投光時間tL(例えば、5ns)の間、パルス光を出力する。パルス信号の周期は、投光器5の投光周期tPであり、投光周期tPは、例えば、1/100s以下の間隔とする。
対物レンズ6は、物体からの反射光を受光するためのもので、投光器5と隣接配置している。例えば、自車両前方の所定範囲を撮像できる画角とするように設定された光学系である。
The distance image data generation device 2 includes a projector (projecting unit) 5, an objective lens 6, a light multiplying unit 7, a high-speed camera (imaging unit) 8, a timing controller (timing control unit) 9, and an image. And a processing unit (distance image data generating means) 10.
The projector 5 is a near-infrared LED disposed at the front end of the vehicle, and outputs pulsed light for a predetermined light projecting time tL (for example, 5 ns) in accordance with the pulse signal output from the timing controller 9. The cycle of the pulse signal is the projection cycle tP of the projector 5, and the projection cycle tP is, for example, an interval of 1/100 s or less.
The objective lens 6 is for receiving reflected light from an object, and is disposed adjacent to the projector 5. For example, the optical system is set to have an angle of view capable of capturing a predetermined range in front of the host vehicle.

光倍増部7は、ゲート7aとイメージインテンシファイア7bとを備えている。
ゲート7aは、タイミングコントローラ9からの開閉指令信号に応じて開閉する。ここで、実施例1では、ゲート7aの開時間(ゲート時間)tGを、投光時間tLと同じ5nsとしている。ここで、ゲート時間tGは、撮像エリア(ターゲット距離)の撮像対象幅に相当し、ゲート時間tGを長くするほど撮像エリアの撮像対象幅は長くなる。実施例1では、ゲート時間tG=5nsとしているため、撮像対象幅は、光速度(約3×108m/s)×ゲート時間(5ns)から、1.5mとなる。
The light multiplication unit 7 includes a gate 7a and an image intensifier 7b.
The gate 7a opens and closes in response to an opening / closing command signal from the timing controller 9. Here, in Example 1, the opening time (gate time) tG of the gate 7a is set to 5 ns, which is the same as the light projection time tL. Here, the gate time tG corresponds to the imaging target width of the imaging area (target distance). The longer the gate time tG, the longer the imaging target width of the imaging area. In the first embodiment, since the gate time tG = 5 ns, the imaging target width is 1.5 m from the speed of light (about 3 × 10 8 m / s) × gate time (5 ns).

イメージインテンシファイア7bは、極微弱な光(物体からの反射光等)を一旦電子に変換して電気的に増幅し、再度蛍光像に戻すことで光量を倍増してコントラストのついた像を見るデバイスである。イメージインテンシファイア7bの光電面より光電現象によって打ち出された光電子はkVオーダーの高電圧で加速され、陽極側の蛍光面に打ち込まれることにより、100倍以上の光子数の蛍光を発する。蛍光面で発生した蛍光は、ファイバオプティックプレートにより、そのままの位置関係を保ったまま散乱されることなく高速度カメラ8のイメージセンサに導かれる。
高速度カメラ8は、タイミングコントローラ9からの指令信号に応じて、光倍増部7から発せられた像を撮像し、撮像画像(カラー画像)を画像処理部10へ出力する。実施例1では、解像度640×480(横:縦)、輝度値1〜255(256段階)、100fps以上のカメラを用いている。
The image intensifier 7b temporarily converts extremely weak light (reflected light from an object, etc.) into electrons and then electrically amplifies it, and returns it to a fluorescent image again, thereby doubling the amount of light and producing an image with contrast. It is a viewing device. Photoelectrons launched from the photocathode of the image intensifier 7b by a photoelectric phenomenon are accelerated at a high voltage of the order of kV, and are emitted into the phosphor screen on the anode side, thereby emitting fluorescence having a photon number of 100 times or more. The fluorescence generated on the phosphor screen is guided to the image sensor of the high-speed camera 8 by the fiber optic plate without being scattered while maintaining the same positional relationship.
The high-speed camera 8 captures an image emitted from the light doubling unit 7 in response to a command signal from the timing controller 9 and outputs a captured image (color image) to the image processing unit 10. In the first embodiment, a camera having a resolution of 640 × 480 (horizontal: vertical), a luminance value of 1 to 255 (256 levels), and 100 fps or more is used.

タイミングコントローラ9は、高速度カメラ8により撮像される撮像画像が、狙った撮像エリアから帰ってくる反射光のタイミングとなるように、投光器5の投光開始時点からゲート7aを開くまでの時間であるディレイ時間tDを設定し、ディレイ時間に応じた開閉指令信号を出力することで、撮像タイミングを制御する。つまり、ディレイ時間tDは、自車両から撮像エリアまでの距離(撮像対象距離)を決める値であり、ディレイ時間tDと撮像対象距離との関係は、以下の式となる。
撮像対象距離=光速度(約3×108m/s)×ディレイ時間tD/2
図2に、1つの撮像エリアを撮像する際の、投光器5の動作(投光動作)とゲート7aの動作(カメラゲート動作)との時間的な関係を示す。
The timing controller 9 is the time from the light projection start time of the projector 5 until the gate 7a is opened so that the captured image captured by the high-speed camera 8 is the timing of the reflected light returning from the target imaging area. The imaging timing is controlled by setting a certain delay time tD and outputting an open / close command signal corresponding to the delay time. That is, the delay time tD is a value that determines the distance from the host vehicle to the imaging area (imaging target distance), and the relationship between the delay time tD and the imaging target distance is as follows.
Imaging distance = speed of light (approx. 3 x 10 8 m / s) x delay time tD / 2
FIG. 2 shows a temporal relationship between the operation of the projector 5 (light projection operation) and the operation of the gate 7a (camera gate operation) when imaging one imaging area.

タイミングコントローラ9は、撮像エリアが車両手前側から先方へと連続的に移動するように、ディレイ時間tDを所定間隔(例えば、10ns)ずつ長くすることで、高速度カメラ8の撮像範囲を車両前方側へ変化させる。なお、タイミングコントローラ9は、ゲート7aが開く直前に高速度カメラ8の撮像動作を開始させ、ゲート7aが完全に閉じた後に撮像動作を終了させる。   The timing controller 9 increases the imaging range of the high-speed camera 8 by increasing the delay time tD by a predetermined interval (for example, 10 ns) so that the imaging area continuously moves from the front side of the vehicle to the front side. Change to the side. The timing controller 9 starts the imaging operation of the high-speed camera 8 immediately before the gate 7a is opened, and ends the imaging operation after the gate 7a is completely closed.

また、実施例1では、図3に示すように、撮像対象距離をB1→B2→B3→…と連続的に変化させながら撮像する際、撮像エリアの撮像対象幅Aよりも撮像対象距離の増加量(B2-B1)を短くすることで、撮像エリアの一部がオーバーラップしながら変化するように撮像対象距離の増加量を設定している。   Further, in the first embodiment, as illustrated in FIG. 3, when the imaging target distance is continuously changed from B1 → B2 → B3 →..., The imaging target distance is increased more than the imaging target width A of the imaging area. By increasing the amount (B2-B1), the increase amount of the imaging target distance is set so that a part of the imaging area changes while overlapping.

図4は、撮像対象距離の増加量を極限まで小さくした場合、言い換えると、撮像エリアを無限に増やして撮像を行った場合の時間的な輝度変化を示す模式図であり、撮像エリアの一部をオーバーラップさせることで、連続する複数の撮像画像における同一画素の輝度値は、徐々に増加し、ピーク後は徐々に小さくなる特性となる。なお、実際には撮像エリアは有限個(1〜n)であるが、連続する撮像エリアの一部をオーバーラップさせることで、時間的な輝度変化は図4の特性に近くなる。   FIG. 4 is a schematic diagram showing temporal luminance changes when the amount of increase in the imaging target distance is reduced to the limit, in other words, when imaging is performed with an infinite increase in the imaging area. By overlapping each other, the luminance value of the same pixel in a plurality of consecutive captured images gradually increases, and after the peak, the luminance value gradually decreases. In practice, the number of imaging areas is limited (1 to n), but by overlapping a part of continuous imaging areas, the temporal luminance change becomes close to the characteristics of FIG.

タイミングコントローラ9は、1フレーム分、すなわち、設定された所定範囲(エリア1、エリア2、…、エリアn)の撮像画像が全て撮像された場合、画像処理部10に対し画像処理指令信号を出力する。   The timing controller 9 outputs an image processing command signal to the image processing unit 10 when all the captured images for one frame, that is, the set predetermined range (area 1, area 2,..., Area n) are captured. To do.

画像処理部10は、高速度カメラ8により撮像された1フレーム分の撮像画像における同一画素の輝度に基づいて、画素毎の物体までの距離を表す距離画像データを生成し、生成した距離画像データを物体認識処理部3へ出力する。   The image processing unit 10 generates distance image data representing the distance to the object for each pixel based on the luminance of the same pixel in the captured image for one frame captured by the high-speed camera 8, and the generated distance image data Is output to the object recognition processing unit 3.

物体認識処理部3は、距離画像データに含まれる物体を特定する。物体の特定方法は、パターンマッチング等、周知の技術を用いることができる。
判断部4は、物体認識処理部3により特定された物体(人、自動車、標識等)と自車両との関係(距離、相対速度等)に基づいて、警報等による運転者への情報提示、自動ブレーキ等の車両制御の要否を判断する。
The object recognition processing unit 3 identifies an object included in the distance image data. A well-known technique such as pattern matching can be used as an object identification method.
Based on the relationship (distance, relative speed, etc.) between the object (person, car, sign, etc.) identified by the object recognition processing unit 3 and the host vehicle, the determination unit 4 presents information to the driver by an alarm, Determine whether vehicle control such as automatic braking is necessary.

[距離画像データ生成制御処理]
図5は、実施例1の画像処理部10で実行される距離画像データ生成制御処理の流れを示すフローチャートで、以下、各ステップについて説明する。なお、この処理は、所定の演算周期で繰り返し実行される。
[Distance image data generation control processing]
FIG. 5 is a flowchart illustrating the flow of the distance image data generation control process executed by the image processing unit 10 according to the first embodiment. Each step will be described below. This process is repeatedly executed at a predetermined calculation cycle.

ステップS1では、投光器5による投光を行わずに自車両前方を撮像した撮像画像の最も輝度の低い輝度値データを最小値データとして記憶し、ステップS2へ移行する。   In step S1, luminance value data having the lowest luminance of the captured image obtained by imaging the front of the host vehicle without light projection by the projector 5 is stored as minimum value data, and the process proceeds to step S2.

ステップS2では、撮像画像を入力し、ステップS3へと移行する。   In step S2, a captured image is input, and the process proceeds to step S3.

ステップS3では、ステップS1で記憶した最小値データと、ステップS2で入力した撮像画像の各画素の輝度値データのうち最も低い輝度値データとを比較し、当該輝度値データが最小値データよりも低いか否かを判定する。YESの場合にはステップS4へ移行し、NOの場合にはステップS5へ移行する。   In step S3, the minimum value data stored in step S1 is compared with the lowest luminance value data among the luminance value data of each pixel of the captured image input in step S2, and the luminance value data is more than the minimum value data. Determine whether it is low. If YES, the process proceeds to step S4. If NO, the process proceeds to step S5.

ステップS4では、最小値データよりも低い輝度値データを新たな最小値データとして記憶し、ステップS5へ移行する。   In step S4, luminance value data lower than the minimum value data is stored as new minimum value data, and the process proceeds to step S5.

ステップS5では、更新、記憶された最小値データが予め設定した閾値を越えているかどうかにより、該当する画素データをノイズデータとして除外する処理を行う。   In step S5, processing for excluding the corresponding pixel data as noise data is performed depending on whether the updated and stored minimum value data exceeds a preset threshold value.

ステップS6では、画素毎に輝度値データと最小値データとの差分を取り、当該画素における現在のデータとし、ステップS7へ移行する。   In step S6, the difference between the luminance value data and the minimum value data is obtained for each pixel, and the current data in the pixel is obtained, and the process proceeds to step S7.

ステップS7では、画素毎に直前(前回制御周期)のデータと現在のデータとの差分を計算し、ステップS8へ移行する。   In step S7, the difference between the previous data (previous control cycle) and the current data is calculated for each pixel, and the process proceeds to step S8.

ステップS8では、ステップS7で求めた差分がしきい値(ノイズ判定しきい値)以下であるか否かを判定する。YESの場合にはステップS10へ移行し、NOの場合にはステップS9へ移行する。実施例1では、しきい値を32とする。   In step S8, it is determined whether or not the difference obtained in step S7 is equal to or smaller than a threshold value (noise determination threshold value). If YES, the process proceeds to step S10. If NO, the process proceeds to step S9. In the first embodiment, the threshold value is set to 32.

ステップS9では、直前のデータとの差分がしきい値を超えるデータの画素を除外(例えば、輝度値0とする)し、ステップS10へ移行する。   In step S9, the pixel of the data whose difference with the immediately preceding data exceeds the threshold is excluded (for example, the luminance value is 0), and the process proceeds to step S10.

ステップS10では、1フレーム分(エリア1、エリア2、…、エリアn)の画像入力が終了したか否かを判定する。YESの場合にはステップS11へ移行し、NOの場合にはステップS2へ移行する。   In step S10, it is determined whether image input for one frame (area 1, area 2,..., Area n) has been completed. If YES, the process proceeds to step S11. If NO, the process proceeds to step S2.

ステップS11では、n個の撮像画像の同一画素の輝度値データを比較し、最も値の高い輝度値データと対応する撮像画像のフレーム番号(ディレイ時間tD)から距離画像データを生成し、リターンへ移行する。   In step S11, the brightness value data of the same pixel of the n captured images is compared, distance image data is generated from the frame number (delay time tD) of the captured image corresponding to the highest brightness value data, and the process returns. Transition.

次に、作用を説明する。
[距離画像データ生成作用]
タイミングコントローラ9は、高速度カメラ8により撮像される撮像画像が、狙った撮像エリアから帰ってくる反射光のタイミングとなるように、ディレイ時間tDを設定し、高速度カメラ8の撮像タイミングを制御する。狙った撮像エリアに物体が存在している場合、投光器5から出射された光が撮像エリアから戻ってくる時間は、自車両と撮像エリアまでの距離(撮像対象距離)を光が往復する時間となるため、ディレイ時間tDは、撮像対象距離と光速度から求めることができる。
Next, the operation will be described.
[Distance image data generation function]
The timing controller 9 controls the imaging timing of the high-speed camera 8 by setting the delay time tD so that the captured image captured by the high-speed camera 8 becomes the timing of the reflected light returning from the target imaging area. To do. When an object is present in the target imaging area, the time for the light emitted from the projector 5 to return from the imaging area is the time for the light to reciprocate the distance between the host vehicle and the imaging area (imaging target distance). Therefore, the delay time tD can be obtained from the imaging target distance and the speed of light.

上記方法で得られた高速度カメラ8の撮像画像において、撮像エリアに物体が存在する場合、当該物体の位置に対応する画素の輝度値データは、反射光の影響を受け、他の画素の輝度値データよりも高い値を示す。これにより、各画素の輝度値データに基づいて、狙った撮像エリアに存在する物体との距離を求めることができる。   In the captured image of the high-speed camera 8 obtained by the above method, when an object exists in the imaging area, the luminance value data of the pixel corresponding to the position of the object is affected by the reflected light, and the luminance of other pixels Indicates a value higher than the value data. Thereby, based on the luminance value data of each pixel, the distance from the object existing in the targeted imaging area can be obtained.

さらに、実施例1では、ディレイ時間tDを変化させながら撮像エリア1〜nの撮像画像を取得する。続いて、各撮像画像における同一画素の輝度値データを比較し、最も高い輝度値データを当該画素の距離とし、全ての画素(640×480)の距離データ(距離画像データ)を生成する。   Furthermore, in the first embodiment, captured images of the imaging areas 1 to n are acquired while changing the delay time tD. Subsequently, the brightness value data of the same pixel in each captured image is compared, and the distance data (distance image data) of all the pixels (640 × 480) is generated using the highest brightness value data as the distance of the pixel.

従来のレーザレーダやステレオカメラを用いた距離検出方法では、雨、霧や雪などの影響を受けやすく、信号レベルに対するノイズレベルが大きくなる(SN比が小さい)ため、悪天候時の信頼性が低い。なお、悪天候の影響を受けにくいミリ波レーダを用いた場合、距離検出の信頼性は高くなるが、ミリ波レーダの信号から物体認識(物体の特定)を行うのは困難であり、別途カメラ画像が必要となる。そして、悪天候時にはカメラ画像が不明瞭となるため、正確な物体認識を行うことは困難である。   Conventional distance detection methods using laser radars and stereo cameras are susceptible to rain, fog, snow, etc., and the noise level with respect to the signal level is large (the SN ratio is small), so the reliability in bad weather is low. . When using a millimeter wave radar that is not easily affected by bad weather, the reliability of distance detection is high, but it is difficult to perform object recognition (object identification) from the millimeter wave radar signal. Is required. Further, since the camera image becomes unclear during bad weather, it is difficult to perform accurate object recognition.

これに対し、実施例1では、狙った撮像エリアから帰ってくる反射波のみを撮像画像に反映させるため、雨、霧や雪などの影響により屈曲した光、すなわち、ノイズの混入レベルを低く抑え、高いSN比を得ることができる。つまり、悪天候や夜間にかかわらず、高い距離検出精度を得ることができる。
そして、生成された距離画像データにより、全ての画素の距離が分かるため、その後パターンマッチング等の手法を用いて物体認識を行う場合、物体との距離を瞬時に把握できる。
On the other hand, in the first embodiment, only reflected waves returning from the target imaging area are reflected in the captured image, so that the light bent due to the influence of rain, fog, snow, or the like, that is, the noise mixing level is kept low. High signal-to-noise ratio can be obtained. That is, high distance detection accuracy can be obtained regardless of bad weather or night.
Since the distances of all the pixels are known from the generated distance image data, the distance to the object can be instantly grasped when performing object recognition using a technique such as pattern matching.

さらに、実施例1では、撮像エリアを連続的に変化させて複数の撮像画像を取得し、各撮像画像を比較して各画素の距離を検出しているため、自車両前方の状況を連続的に、かつ、広範囲に亘って把握できる。例えば、自車両と先行車両との間に歩行者が飛び出してきた状況であっても、先行車と歩行者の距離をそれぞれ同時に把握でき、警報による運転者への情報提示や自動ブレーキ等の車両制御を行うことが可能である。   Furthermore, in the first embodiment, the captured area is continuously changed to acquire a plurality of captured images, and the captured images are compared to detect the distance of each pixel. In addition, it can be grasped over a wide range. For example, even in the situation where a pedestrian has jumped between the host vehicle and the preceding vehicle, the distance between the preceding vehicle and the pedestrian can be grasped at the same time. Control can be performed.

図6は、自車両前方の異なる位置に4人の歩行者A〜Dが存在している状況を示し、自車両と各歩行者との距離の関係は、A<B<C<Dとする。
このとき、実施例1では、1つの物体からの反射光が連続する複数の撮像エリアにおける撮像画像の画素に反映されるように、撮像エリアの一部をオーバーラップさせている。このため、各歩行者に対応する画素の時間的な輝度変化は、図7に示すように、歩行者の位置でピークを取る三角形の特性を示す。
FIG. 6 shows a situation in which four pedestrians A to D exist at different positions in front of the host vehicle, and the relationship between the distance between the host vehicle and each pedestrian is A <B <C <D. .
At this time, in Example 1, a part of the imaging area is overlapped so that the reflected light from one object is reflected in the pixels of the captured image in a plurality of continuous imaging areas. For this reason, the temporal luminance change of the pixel corresponding to each pedestrian shows a triangular characteristic that takes a peak at the position of the pedestrian, as shown in FIG.

なお、距離画像データは、警報や車両制御に用いるデータであるため、ある程度の演算速度が要求される以上、撮像エリアを無限に細かく設定することは時間的に不可能であるが、1つの物体からの反射光が複数の撮像画像の含まれるようにすることで、図8に示すように、画素の時間的な輝度変化を上記特性に近似させ、三角形部分のピークと対応する撮像エリアを、当該画素における物体の距離とすることで、検出精度を高めることができる。
実際に距離画像の例として、各画素における物体までの距離を、近くを赤、遠くを青と色波長に関連させてカラードット表示にしたものを図11,12に示す。
Since the distance image data is data used for alarms and vehicle control, it is impossible to set an imaging area infinitely finely as long as a certain calculation speed is required. By making the reflected light from the plurality of captured images included, as shown in FIG. 8, the temporal luminance change of the pixel is approximated to the above characteristics, and the imaging area corresponding to the peak of the triangular portion is By setting the distance of the object in the pixel, detection accuracy can be increased.
As an example of the distance image, FIG. 11 and FIG. 12 show the color dot display in which the distance to the object in each pixel is related to red and near to blue and the color wavelength.

[ノイズ除去作用]
実施例1では、輝度のある画像部分を得ることにより撮像対象距離の対象物の把握を行う。そして、撮像対象距離以外の自車との距離にあるものは、輝度のない画像部分にすることで処理して行くことになる。
そのため、常時発光しているようなもの、例えば、外灯、車のヘッドライト、ブレーキランプ、建物の窓からの光が存在した場合、これを除外しないと、撮像を行った、各距離に対象物が存在していると判定されることになる。
[Noise elimination]
In the first embodiment, an object having an imaging target distance is grasped by obtaining a bright image portion. And what is in the distance with the own vehicle other than imaging distance is processed by making it the image part without a brightness | luminance.
For this reason, if there is light from the outside, such as outdoor lights, car headlights, brake lamps, and building windows, unless they are excluded, the object is captured at each distance. Is determined to exist.

実施例1では、画像処理部10が行うステップS5の処理により、常時発光しているものを撮像している画素データをノイズとして除外する。
具体的には、各距離の画像データの同じXY位置(縦横の座標で決まる位置)の画素(同一画素)の輝度データを処理するために最初に行うステップS3,S4の処理で確定される輝度最小値の最初値データを用いる。この最小値データは、各距離の画素データの同じ位置の同一画素のなかの輝度最小値である。
そのため、予め設定した閾値とこの最小値データを比較すれば、常時発光しているものを撮像した画素は、その輝度最小値が高い値を示すことになり、閾値を越えることで判別される。そして、ノイズとして除外されることにより、その後に生成される距離画像データは、より正確なものとなる。また、この距離画像を用いてその後に対象物を特定する処理を行う場合にも、より精度よく対象物特定が行えることになる。
例えば、1画素の輝度値データが0〜256までの分解能である場合に、その最小輝度値データが48の閾値を越えると除外する。
In the first exemplary embodiment, pixel data that captures an image that is constantly emitting light is excluded as noise by the processing in step S5 performed by the image processing unit 10.
Specifically, the brightness determined by the processing of steps S3 and S4 performed first to process the brightness data of the pixel (same pixel) at the same XY position (position determined by the vertical and horizontal coordinates) of the image data of each distance. The first value data of the minimum value is used. This minimum value data is the minimum luminance value in the same pixel at the same position in the pixel data of each distance.
Therefore, if the threshold value set in advance is compared with the minimum value data, a pixel that captures an image that is constantly emitting light has a high minimum luminance value, and is determined by exceeding the threshold value. Then, by being excluded as noise, the distance image data generated thereafter becomes more accurate. In addition, even when a process for specifying an object is performed using this distance image, the object can be specified with higher accuracy.
For example, if the luminance value data of one pixel has a resolution of 0 to 256, the minimum luminance value data is excluded when it exceeds 48 thresholds.

図9は、自車両前方を一般的なカメラで撮像したときの画像であり、この状況で実施例1の手法を用いると、各撮像エリアの撮像画像は、図10(a)〜(j)となる。ここで、図10(a)〜(j)において、常時発光している部分を符号Pで指し示す。
このように常時発光している部分は、図10(a)〜(j)のそれぞれの画像に、輝度の高い部分として存在することになる。
FIG. 9 is an image when the front of the host vehicle is captured by a general camera. In this situation, when the method of the first embodiment is used, captured images in the respective imaging areas are illustrated in FIGS. 10 (a) to 10 (j). It becomes. Here, in FIG. 10A to FIG.
Thus, the part which always emits light exists as a part with high brightness | luminance in each image of Fig.10 (a)-(j).

この常時発光している部分が撮像された画像(図10(a)〜(j))に基づいて生成される距離画像データには、常時発光している部分が実際に常時発光しているものが存在する撮像対象距離とは異なる距離が表示されている(図11の符号P部分参照)。
これに対し、実施例1のノイズ除去を行い、常時発光部分の距離データを図12の符号Pで示す部分のように削除することにより、この距離画像データの精度を向上させ、また、その後に対象物を特定する処理の精度を向上させる。
なお、図9〜12は、都合上グレイスケールとしているが、実際にはカラー画像である。
In the distance image data generated based on the images (FIGS. 10 (a) to 10 (j)) obtained by capturing the always light emitting portion, the always light emitting portion is actually always emitting light. A distance that is different from the imaging target distance in which is present is displayed (see the portion P in FIG. 11).
On the other hand, the noise removal of Example 1 is performed, and the distance data of the constant light emission part is deleted as indicated by the symbol P in FIG. 12, thereby improving the accuracy of the distance image data. Improve the accuracy of processing to identify the object.
9 to 12 are gray scales for convenience, they are actually color images.

次に、効果を説明する。
実施例1の距離画像データ生成装置2にあっては、以下に列挙する効果を奏する。
Next, the effect will be described.
The distance image data generation device 2 according to the first embodiment has the following effects.

(1) 自車両前方に所定周期でパルス光を投光する投光器5と、ターゲット距離に応じて設定される撮像タイミングでターゲット距離から帰ってくる反射光を撮像するイメージインテンシファイア7b及び高速度カメラ8と、ターゲット距離が連続的に変化するように撮像タイミングを制御するタイミングコントローラ9と、イメージインテンシファイア7b及び高速度カメラ8により得られたターゲット距離の異なる複数の撮像画像における同一画素の輝度に基づいて、画素毎の物体までの距離を表す距離画像データを生成する画像処理部10を備え、画像処理部10は、常時発光しているために全ての撮像画像に存在する画素データを、ノイズとして除去するステップS5の処理を備えたため、自車両前方の状況を連続的に把握でき、常時発光しているノイズを除去して距離画像データの精度を向上させることができ、その後の対象物特定処理の精度向上に寄与できる。   (1) A projector 5 that projects pulsed light in front of the host vehicle at a predetermined period, an image intensifier 7b that captures reflected light returning from the target distance at an imaging timing set according to the target distance, and a high speed The same pixel in a plurality of captured images with different target distances obtained by the camera 8, the timing controller 9 that controls the imaging timing so that the target distance changes continuously, the image intensifier 7b, and the high-speed camera 8 An image processing unit 10 that generates distance image data representing a distance to an object for each pixel based on luminance is provided. Since the image processing unit 10 always emits light, pixel data present in all captured images is obtained. Since the process of step S5 to remove as noise is provided, the situation in front of the host vehicle can be grasped continuously, The light noise can be removed to improve the accuracy of the distance image data, which can contribute to improving the accuracy of the subsequent object specifying process.

(2) (1)において、画像処理部10が行うステップS5の処理は、ターゲット距離の異なる複数の撮像画像における同一画素の輝度に対して、最小輝度値を選択し、最小輝度値が予め設定した閾値を越えている場合は、ノイズとしてデータを除去するため、常時発光しているものは、複数の撮像画像の同一画素に輝度高く撮像されることになるので、これを閾値により判別して、ノイズとして除外することにより、常時発光しているノイズを除去して距離画像データの精度を向上させることができ、その後の対象物特定処理の精度向上に寄与できる。   (2) In (1), the process of step S5 performed by the image processing unit 10 selects the minimum luminance value for the luminance of the same pixel in a plurality of captured images with different target distances, and sets the minimum luminance value in advance. If the threshold is exceeded, data is removed as noise, so that always emitting light is picked up with high brightness on the same pixel of a plurality of captured images. By excluding it as noise, it is possible to remove the noise that is always emitted and improve the accuracy of the distance image data, thereby contributing to the accuracy improvement of the subsequent object specifying process.

(他の実施例)
以上、本発明を実施するための最良の形態を、実施例に基づき説明したが、本発明の具体的な構成については、実施例の構成に限らず、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計変更や追加等は許容される。
(Other examples)
The best mode for carrying out the present invention has been described above based on the embodiment. However, the specific configuration of the present invention is not limited to the configuration of the embodiment, and it relates to each claim of the claims. Design changes and additions are allowed without departing from the spirit of the invention.

例えば、投光周期、投光時間、ゲート時間、撮像対象幅、撮像対象距離の変化量、1フレーム中の撮像エリア数は、撮像手段の性能や距離画像データ生成手段の性能に応じて適宜設定することができる。   For example, the light projection period, the light projection time, the gate time, the imaging target width, the amount of change in the imaging target distance, and the number of imaging areas in one frame are appropriately set according to the performance of the imaging means and the performance of the distance image data generation means can do.

実施例1の障害物検出装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the obstruction detection apparatus 1 of Example 1. FIG. 1つの撮像エリアを撮像する際の、投光器5の動作(投光動作)とゲート7aの動作(カメラゲート動作)との時間的な関係を示す図である。It is a figure which shows the temporal relationship between the operation | movement (light projection operation | movement) of the light projector 5, and the operation | movement (camera gate operation | movement) of the gate 7a at the time of imaging one imaging area. 撮像エリアの一部がオーバーラップする状態を示す図である。It is a figure which shows the state which a part of imaging area overlaps. 撮像エリアを無限に増やして撮像を行った場合の時間的な輝度変化を示す模式図である。It is a schematic diagram which shows a temporal luminance change at the time of imaging by increasing an imaging area infinitely. 実施例1の画像処理部10で実行される距離画像データ生成制御処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of distance image data generation control processing executed by the image processing unit 10 according to the first embodiment. 自車両前方の異なる位置に4人の歩行者A〜Dが存在している状況を示す図である。It is a figure which shows the condition where four pedestrians AD exist in the different position ahead of the own vehicle. 各歩行者A〜Bに対応する画素の時間的な輝度変化を示す模式図である。It is a schematic diagram which shows the temporal luminance change of the pixel corresponding to each pedestrian A-B. 実施例1の距離画像データ生成作用を示す図である。It is a figure which shows the distance image data generation effect | action of Example 1. FIG. 自車両前方を一般的なカメラで撮像したときの画像である。It is an image when the front of the host vehicle is imaged with a general camera. 各撮像エリアの撮像画像を示す図である。It is a figure which shows the captured image of each imaging area. 実施例1のノイズ除去を実施しない場合の距離画像データである。It is distance image data in the case of not performing noise removal of Example 1. 実施例1のノイズ除去作用を示す距離画像データである。It is distance image data which shows the noise removal effect | action of Example 1. FIG.

符号の説明Explanation of symbols

1 障害物検出装置
2 距離画像データ生成装置
3 物体認識処理部
4 判断部
5 投光器(投光手段)
6 対物レンズ
7 光増倍部
7a ゲート
7b イメージインテンシファイア
8 高速度カメラ(撮像手段)
9 タイミングコントローラ(タイミング制御手段)
10 画像処理部(距離画像データ生成手段)
P (距離画像データの常時発光箇所を示す)符号
DESCRIPTION OF SYMBOLS 1 Obstacle detection apparatus 2 Distance image data generation apparatus 3 Object recognition process part 4 Judgment part 5 Light projector (light projection means)
6 Objective lens 7 Photomultiplier 7a Gate 7b Image intensifier 8 High-speed camera (imaging means)
9 Timing controller (timing control means)
10 Image processing unit (distance image data generating means)
P (Indicates the constant light emission location of distance image data)

Claims (2)

自車両前方に所定周期でパルス光を投光する投光手段と、
ターゲット距離に応じて設定される撮像タイミングで前記ターゲット距離から帰ってくる反射光を撮像する撮像手段と、
前記ターゲット距離が連続的に変化するように前記撮像タイミングを制御するタイミング制御手段と、
前記撮像手段により得られたターゲット距離の異なる複数の撮像画像における同一画素の輝度に基づいて、画素毎の物体までの距離を表す距離画像データを生成する距離画像データ生成手段と、
を備え、
前記距離画像データ生成手段は、
常時発光しているために全ての撮像画像に存在する画素データを、ノイズとして除去するノイズ除去手段を備えた、
ことを特徴とする車両用距離画像データ生成装置。
Light projecting means for projecting pulsed light in front of the host vehicle at a predetermined period;
Imaging means for imaging reflected light returning from the target distance at an imaging timing set according to the target distance;
Timing control means for controlling the imaging timing so that the target distance changes continuously;
Distance image data generation means for generating distance image data representing a distance to an object for each pixel based on the luminance of the same pixel in a plurality of captured images with different target distances obtained by the imaging means;
With
The distance image data generation means includes
Since it always emits light, it has a noise removal means to remove pixel data present in all captured images as noise,
A vehicular distance image data generating apparatus characterized by the above.
請求項1に記載の車両用距離画像データ生成装置において、
前記ノイズ除去手段は、
ターゲット距離の異なる複数の撮像画像における同一画素の輝度に対して、最小輝度値を選択し、最小輝度値が予め設定した閾値を越えている場合は、ノイズとしてデータを除去する、
ことを特徴とする車両用距離画像データ生成装置。
The vehicle distance image data generation device according to claim 1,
The noise removing means is
Select the minimum luminance value for the luminance of the same pixel in a plurality of captured images with different target distances, and if the minimum luminance value exceeds a preset threshold, remove data as noise,
A vehicular distance image data generating apparatus characterized by the above.
JP2008109336A 2008-04-18 2008-04-18 Apparatus and method for generating range image data for vehicle Pending JP2009258015A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008109336A JP2009258015A (en) 2008-04-18 2008-04-18 Apparatus and method for generating range image data for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008109336A JP2009258015A (en) 2008-04-18 2008-04-18 Apparatus and method for generating range image data for vehicle

Publications (1)

Publication Number Publication Date
JP2009258015A true JP2009258015A (en) 2009-11-05

Family

ID=41385610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008109336A Pending JP2009258015A (en) 2008-04-18 2008-04-18 Apparatus and method for generating range image data for vehicle

Country Status (1)

Country Link
JP (1) JP2009258015A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017110418A1 (en) * 2015-12-21 2017-06-29 株式会社小糸製作所 Image acquisition device to be used by vehicle, control device, vehicle equipped with control device or image acquisition device to be used by vehicle, and image acquisition method to be used by vehicle
CN108431631A (en) * 2015-12-21 2018-08-21 株式会社小糸制作所 Vehicle image acquiring device, control device, include vehicle image acquiring device or control device vehicle and vehicle image acquiring method
CN108431630A (en) * 2015-12-21 2018-08-21 株式会社小糸制作所 Vehicle image acquiring device, control device, include vehicle image acquiring device or control device vehicle and vehicle image acquiring method
US11204425B2 (en) 2015-12-21 2021-12-21 Koito Manufacturing Co., Ltd. Image acquisition device for vehicles and vehicle provided with same

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017110418A1 (en) * 2015-12-21 2017-06-29 株式会社小糸製作所 Image acquisition device to be used by vehicle, control device, vehicle equipped with control device or image acquisition device to be used by vehicle, and image acquisition method to be used by vehicle
CN108431631A (en) * 2015-12-21 2018-08-21 株式会社小糸制作所 Vehicle image acquiring device, control device, include vehicle image acquiring device or control device vehicle and vehicle image acquiring method
CN108431629A (en) * 2015-12-21 2018-08-21 株式会社小糸制作所 Vehicle image acquiring device, control device, include vehicle image acquiring device or control device vehicle and vehicle image acquiring method
CN108431630A (en) * 2015-12-21 2018-08-21 株式会社小糸制作所 Vehicle image acquiring device, control device, include vehicle image acquiring device or control device vehicle and vehicle image acquiring method
JPWO2017110418A1 (en) * 2015-12-21 2018-10-04 株式会社小糸製作所 Vehicular image acquisition device, control device, vehicle image acquisition device or vehicle equipped with control device, and vehicle image acquisition method
US11187805B2 (en) 2015-12-21 2021-11-30 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
US11194023B2 (en) 2015-12-21 2021-12-07 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
US11204425B2 (en) 2015-12-21 2021-12-21 Koito Manufacturing Co., Ltd. Image acquisition device for vehicles and vehicle provided with same
US11249172B2 (en) 2015-12-21 2022-02-15 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
CN108431629B (en) * 2015-12-21 2022-07-08 株式会社小糸制作所 Vehicle image acquisition device, control device, vehicle including vehicle image acquisition device or control device, and vehicle image acquisition method

Similar Documents

Publication Publication Date Title
JP2009257983A (en) Device and method for generating distance image data for vehicle
WO2017110413A1 (en) Image acquisition device for vehicles, control device, vehicle provided with image acquisition device for vehicles and control device, and image acquisition method for vehicles
JP2009257981A (en) Device for generating distance image data for vehicle
JP6851985B2 (en) Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device
JP2010170449A (en) Device and method for creating range image data for vehicle
JP6471528B2 (en) Object recognition apparatus and object recognition method
JP2010121995A (en) Device for generating distance image data for vehicle
JP2010061304A (en) Vehicular distance image data generation device
TWI302879B (en) Real-time nighttime vehicle detection and recognition system based on computer vision
JP2010066221A (en) Range image data generating device for vehicle
KR20070005553A (en) Imaging system
EP3396411A1 (en) Image acquisition device for vehicles, and vehicle provided with same
JP6851986B2 (en) Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device
JP2010054461A (en) Device for generating distance image data for vehicle
JP2009257982A (en) Device for generating distance image data for vehicle
JP7095640B2 (en) Object detector
US20080012942A1 (en) Imaging System
JP2010071704A (en) Device and method for generating distance image data for vehicle
JP2016110539A (en) Vehicle-outside environment recognition device
JP2009258015A (en) Apparatus and method for generating range image data for vehicle
JP6335037B2 (en) Outside environment recognition device
JP2009282906A (en) Range image data generation device for vehicle
US10953813B2 (en) Image acquisition device to be used by vehicle and vehicle provided with same
JP2010212042A (en) Led lighting device
JP2010145255A (en) Apparatus and method for creating vehicle-use distance image data