JP2009281895A - Range image data generating device for vehicle and method for generating range image data - Google Patents

Range image data generating device for vehicle and method for generating range image data Download PDF

Info

Publication number
JP2009281895A
JP2009281895A JP2008134865A JP2008134865A JP2009281895A JP 2009281895 A JP2009281895 A JP 2009281895A JP 2008134865 A JP2008134865 A JP 2008134865A JP 2008134865 A JP2008134865 A JP 2008134865A JP 2009281895 A JP2009281895 A JP 2009281895A
Authority
JP
Japan
Prior art keywords
distance
image data
imaging
distance image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008134865A
Other languages
Japanese (ja)
Inventor
Yoshihiro Edamoto
吉広 枝本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marelli Corp
Original Assignee
Calsonic Kansei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Calsonic Kansei Corp filed Critical Calsonic Kansei Corp
Priority to JP2008134865A priority Critical patent/JP2009281895A/en
Publication of JP2009281895A publication Critical patent/JP2009281895A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a range image data generating device for a vehicle and a method for generating the range image data for the vehicle capable of continuously obtaining the situation of the front of the vehicle. <P>SOLUTION: The range image data generating device includes a projector 5, an image intensifier 7b and a high speed camera 8, a timing controller 9, and an image processing part 10 for detecting an object in a plurality of the respective images with different target range obtained by the image intensifier 7b and high speed camera 8 and generating the range image data representing the range of the object based on the luminance of the object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両用距離画像データ生成装置の技術分野に属する。   The present invention belongs to the technical field of a vehicle distance image data generation device.

特許文献1には、自車両前方を投光し、ターゲット距離から戻ってくる反射光のタイミングに合わせて撮像した画像に基づいて、当該ターゲット距離に障害物等の物体が存在するか否かを検出する技術が開示されている。
米国特許第6700123号明細書
In Patent Literature 1, whether or not an object such as an obstacle exists at the target distance is based on an image that is projected in accordance with the timing of reflected light that is projected in front of the host vehicle and returned from the target distance. Techniques for detection are disclosed.
US Pat. No. 6,732,123

しかしながら、上記従来技術にあっては、ターゲット距離以外の物体を検出できない。つまり、状況の把握が間欠的であり、自車両前方の状況を連続的に把握できないという問題があった。   However, in the above prior art, objects other than the target distance cannot be detected. That is, there is a problem that the situation is intermittently grasped and the situation ahead of the host vehicle cannot be grasped continuously.

本発明の目的は、自車両前方の状況を連続的に把握できる車両用距離画像データ生成装置および車両用距離画像データの生成方法を提供することにある。   An object of the present invention is to provide a vehicular distance image data generation apparatus and a vehicular distance image data generation method capable of continuously grasping the situation ahead of the host vehicle.

上記目的を達成するため、本発明の車両用距離画像データ生成装置では、自車両前方に所定周期でパルス光を投光する投光手段と、ターゲット距離に応じて設定される撮像タイミングで前記ターゲット距離から帰ってくる反射光を撮像する撮像手段と、前記ターゲット距離が連続的に変化するように前記撮像タイミングを制御するタイミング制御手段と、前記撮像手段により得られたターゲット距離の異なる複数の撮像画像ごとにオブジェクトを検出し、前記オブジェクトの輝度に基づいて、前記オブジェクトまでの距離を表す距離画像データを生成する距離画像データ生成手段と、を備えた、ことを特徴とする。   In order to achieve the above object, in the vehicle distance image data generation device of the present invention, a light projecting unit that projects pulsed light in front of the host vehicle at a predetermined cycle, and an imaging timing set according to the target distance. Imaging means for imaging reflected light returning from the distance, timing control means for controlling the imaging timing so that the target distance changes continuously, and a plurality of imagings with different target distances obtained by the imaging means Distance image data generating means for detecting an object for each image and generating distance image data representing a distance to the object based on the luminance of the object.

よって、本発明にあっては、自車両前方の状況を連続的に把握できる。   Therefore, in this invention, the situation ahead of the own vehicle can be grasped | ascertained continuously.

以下、本発明の車両用距離画像データ生成装置および車両用距離画像データの生成方法を実現するための最良の形態を、図面に基づく実施例により説明する。   The best mode for realizing the vehicle distance image data generating apparatus and the vehicle distance image data generating method of the present invention will be described below with reference to the drawings.

まず、構成を説明する。
図1は、本発明の車両用距離画像データ生成装置を適用した実施例1の障害物検出装置1の構成を示すブロック図であり、実施例1の障害物検出装置1は、距離画像データ生成装置2と、物体認識処理部3と、判断部4とを備えている。
First, the configuration will be described.
FIG. 1 is a block diagram illustrating a configuration of an obstacle detection apparatus 1 according to a first embodiment to which the vehicle distance image data generation apparatus according to the present invention is applied. The obstacle detection apparatus 1 according to the first embodiment generates distance image data. A device 2, an object recognition processing unit 3, and a determination unit 4 are provided.

距離画像データ生成装置2は、投光器(投光手段)5と、対物レンズ6と、光増倍部7と、高速度カメラ(撮像手段)8と、タイミングコントローラ(タイミング制御手段)9と、画像処理部(距離画像データ生成手段)10とを備えている。
投光器5は、車両の前端部に配置した近赤外線LEDであり、タイミングコントローラ9から出力されるパルス信号に応じて、所定の投光時間tL(例えば、5ns)の間、パルス光を出力する。パルス信号の周期は、投光器5の投光周期tPであり、投光周期tPは、例えば、1/100s以下の間隔とする。
対物レンズ6は、物体からの反射光を受光するためのもので、投光器5と隣接配置している。例えば、自車両前方の所定範囲を撮像できる画角とするように設定された光学系である。
The distance image data generation device 2 includes a projector (projecting unit) 5, an objective lens 6, a light multiplying unit 7, a high-speed camera (imaging unit) 8, a timing controller (timing control unit) 9, and an image. And a processing unit (distance image data generating means) 10.
The projector 5 is a near-infrared LED disposed at the front end of the vehicle, and outputs pulsed light for a predetermined light projecting time tL (for example, 5 ns) in accordance with the pulse signal output from the timing controller 9. The cycle of the pulse signal is the projection cycle tP of the projector 5, and the projection cycle tP is, for example, an interval of 1/100 s or less.
The objective lens 6 is for receiving reflected light from an object, and is disposed adjacent to the projector 5. For example, the optical system is set to have an angle of view capable of capturing a predetermined range in front of the host vehicle.

光倍増部7は、ゲート7aとイメージインテンシファイア7bとを備えている。
ゲート7aは、タイミングコントローラ9からの開閉指令信号に応じて開閉する。ここで、実施例1では、ゲート7aの開時間(ゲート時間)tGを、投光時間tLと同じ5nsとしている。ここで、ゲート時間tGは、撮像エリア(ターゲット距離)の撮像対象幅に相当し、ゲート時間tGを長くするほど撮像エリアの撮像対象幅は長くなる。実施例1では、ゲート時間tG=5nsとしているため、撮像対象幅は、光速度(約3×108m/s)×ゲート時間(5ns)から、1.5mとなる。
The light multiplication unit 7 includes a gate 7a and an image intensifier 7b.
The gate 7a opens and closes in response to an opening / closing command signal from the timing controller 9. Here, in Example 1, the opening time (gate time) tG of the gate 7a is set to 5 ns, which is the same as the light projection time tL. Here, the gate time tG corresponds to the imaging target width of the imaging area (target distance). The longer the gate time tG, the longer the imaging target width of the imaging area. In the first embodiment, since the gate time tG = 5 ns, the imaging target width is 1.5 m from the speed of light (about 3 × 10 8 m / s) × gate time (5 ns).

イメージインテンシファイア7bは、極微弱な光(物体からの反射光等)を一旦電子に変換して電気的に増幅し、再度蛍光像に戻すことで光量を倍増してコントラストのついた像を見るデバイスである。イメージインテンシファイア7bの光電面より光電現象によって打ち出された光電子はkVオーダーの高電圧で加速され、陽極側の蛍光面に打ち込まれることにより、100倍以上の光子数の蛍光を発する。蛍光面で発生した蛍光は、ファイバオプティックプレートにより、そのままの位置関係を保ったまま散乱されることなく高速度カメラ8のイメージセンサに導かれる。
高速度カメラ8は、タイミングコントローラ9からの指令信号に応じて、光倍増部7から発せられた像を撮像し、撮像画像(カラー画像)を画像処理部10へ出力する。実施例1では、解像度640×480(横:縦)、輝度値1〜255(256段階)、100fps以上のカメラを用いている。
The image intensifier 7b temporarily converts extremely weak light (reflected light from an object, etc.) into electrons and then electrically amplifies it, and returns it to a fluorescent image again, thereby doubling the amount of light and producing an image with contrast. It is a viewing device. Photoelectrons launched from the photocathode of the image intensifier 7b by a photoelectric phenomenon are accelerated at a high voltage of the order of kV, and are emitted into the phosphor screen on the anode side, thereby emitting fluorescence having a photon number of 100 times or more. The fluorescence generated on the phosphor screen is guided to the image sensor of the high-speed camera 8 by the fiber optic plate without being scattered while maintaining the same positional relationship.
The high-speed camera 8 captures an image emitted from the light doubling unit 7 in response to a command signal from the timing controller 9 and outputs a captured image (color image) to the image processing unit 10. In the first embodiment, a camera having a resolution of 640 × 480 (horizontal: vertical), a luminance value of 1 to 255 (256 levels), and 100 fps or more is used.

タイミングコントローラ9は、高速度カメラ8により撮像される撮像画像が、狙った撮像エリアから帰ってくる反射光のタイミングとなるように、投光器5の投光開始時点からゲート7aを開くまでの時間であるディレイ時間tDを設定し、ディレイ時間に応じた開閉指令信号を出力することで、撮像タイミングを制御する。つまり、ディレイ時間tDは、自車両から撮像エリアまでの距離(撮像対象距離)を決める値であり、ディレイ時間tDと撮像対象距離との関係は、以下の式となる。
撮像対象距離=光速度(約3×108m/s)×ディレイ時間tD/2
図2に、1つの撮像エリアを撮像する際の、投光器5の動作(投光動作)とゲート7aの動作(カメラゲート動作)との時間的な関係を示す。
The timing controller 9 is the time from the light projection start time of the projector 5 until the gate 7a is opened so that the captured image captured by the high-speed camera 8 is the timing of the reflected light returning from the target imaging area. The imaging timing is controlled by setting a certain delay time tD and outputting an open / close command signal corresponding to the delay time. That is, the delay time tD is a value that determines the distance from the host vehicle to the imaging area (imaging target distance), and the relationship between the delay time tD and the imaging target distance is as follows.
Imaging distance = speed of light (approx. 3 x 10 8 m / s) x delay time tD / 2
FIG. 2 shows a temporal relationship between the operation of the projector 5 (light projection operation) and the operation of the gate 7a (camera gate operation) when imaging one imaging area.

タイミングコントローラ9は、撮像エリアが車両手前側から先方へと連続的に移動するように、ディレイ時間tDを所定間隔(例えば、10ns)ずつ長くすることで、高速度カメラ8の撮像範囲を車両前方側へ変化させる。なお、タイミングコントローラ9は、ゲート7aが開く直前に高速度カメラ8の撮像動作を開始させ、ゲート7aが完全に閉じた後に撮像動作を終了させる。   The timing controller 9 increases the imaging range of the high-speed camera 8 by increasing the delay time tD by a predetermined interval (for example, 10 ns) so that the imaging area continuously moves from the front side of the vehicle to the front side. Change to the side. The timing controller 9 starts the imaging operation of the high-speed camera 8 immediately before the gate 7a is opened, and ends the imaging operation after the gate 7a is completely closed.

また、実施例1では、図3に示すように、撮像対象距離をB1→B2→B3→…と連続的に変化させながら撮像する際、撮像エリアの撮像対象幅Aよりも撮像対象距離の増加量(B2-B1)を短くすることで、撮像エリアの一部がオーバーラップしながら変化するように撮像対象距離の増加量を設定している。   Further, in the first embodiment, as illustrated in FIG. 3, when the imaging target distance is continuously changed from B1 → B2 → B3 →..., The imaging target distance is increased more than the imaging target width A of the imaging area. By increasing the amount (B2-B1), the increase amount of the imaging target distance is set so that a part of the imaging area changes while overlapping.

図4は、撮像対象距離の増加量を極限まで小さくした場合、言い換えると、撮像エリアを無限に増やして撮像を行った場合の時間的な輝度変化を示す模式図であり、撮像エリアの一部をオーバーラップさせることで、連続する複数の撮像画像における同一の画素の輝度値は、徐々に増加し、ピーク後は徐々に小さくなる特性となる。なお、実際には撮像エリアは有限個(1〜n)であるが、連続する撮像エリアの一部をオーバーラップさせることで、時間的な輝度変化は図4の特性に近くなる。   FIG. 4 is a schematic diagram showing temporal luminance changes when the amount of increase in the imaging target distance is reduced to the limit, in other words, when imaging is performed with an infinite increase in the imaging area. By overlapping each other, the luminance value of the same pixel in a plurality of consecutive captured images gradually increases, and after the peak, the luminance value gradually decreases. In practice, the number of imaging areas is limited (1 to n), but by overlapping a part of continuous imaging areas, the temporal luminance change becomes close to the characteristics of FIG.

タイミングコントローラ9は、1フレーム分、すなわち、設定された所定範囲(エリア1、エリア2、…、エリアn)の撮像画像が全て撮像された場合、画像処理部10に対し画像処理指令信号を出力する。   The timing controller 9 outputs an image processing command signal to the image processing unit 10 when all the captured images for one frame, that is, the set predetermined range (area 1, area 2,..., Area n) are captured. To do.

画像処理部10は、高速度カメラ8により撮像された1フレーム分の撮像画像から、距離情報を伴う物体(オブジェクト)を検出し、物体までの距離を色や輝度等で表す距離画像データを生成し、生成した距離画像データを物体認識処理部3へ出力する。   The image processing unit 10 detects an object (object) with distance information from a captured image of one frame imaged by the high-speed camera 8, and generates distance image data that represents the distance to the object by color, luminance, or the like. Then, the generated distance image data is output to the object recognition processing unit 3.

物体認識処理部3は、距離画像データに含まれる物体(オブジェクト)に対して、さらにパターンマッチング等により距離画像データに含まれる物体を特定する。
判断部4は、物体認識処理部3により特定された物体(人、自動車、標識等)と自車両との関係(距離、相対速度等)に基づいて、警報等による運転者への情報提示、自動ブレーキ等の車両制御の要否を判断する。
The object recognition processing unit 3 further identifies an object included in the distance image data by pattern matching or the like with respect to the object (object) included in the distance image data.
Based on the relationship (distance, relative speed, etc.) between the object (person, car, sign, etc.) identified by the object recognition processing unit 3 and the host vehicle, the determination unit 4 presents information to the driver by an alarm, Determine whether vehicle control such as automatic braking is necessary.

[距離画像データ生成制御処理]
図5は、実施例1の画像処理部10で実行される距離画像データ生成制御処理の流れを示すフローチャートで、以下、各ステップについて説明する。なお、この処理は、所定の演算周期で繰り返し実行される。
[Distance image data generation control processing]
FIG. 5 is a flowchart illustrating the flow of the distance image data generation control process executed by the image processing unit 10 according to the first embodiment. Each step will be described below. This process is repeatedly executed at a predetermined calculation cycle.

ステップS1では、画像処理部10が、投光器5による投光を行わずに自車両前方を撮像した撮像画像の最も輝度の低い輝度値データを後の輝度判断のために記憶し、ステップS2へ移行する。このデータは、距離画像データ生成の際に用いるものとする。   In step S1, the image processing unit 10 stores the luminance value data having the lowest luminance of the captured image obtained by imaging the front of the host vehicle without performing the light projection by the projector 5 for later luminance determination, and proceeds to step S2. To do. This data is used when generating the distance image data.

ステップS2では、画像処理部10が、撮像画像を入力し、ステップS3へと移行する。   In step S2, the image processing unit 10 inputs a captured image, and proceeds to step S3.

ステップS3では、画像処理部10が、入力された撮像画像に対して、所定の輝度しきい値により2値化する処理を画像中に各画素について行い、2値化画像を生成する処理を行う。   In step S3, the image processing unit 10 performs a process of binarizing the input captured image with a predetermined luminance threshold value for each pixel in the image to generate a binarized image. .

ステップS4では、画像処理部10が、2値化画像において、画素が輝度のある面積部分を構成する箇所について、ラベルを割り付けるラベリング処理を行う。   In step S4, the image processing unit 10 performs a labeling process for assigning a label to a portion where a pixel constitutes an area area with luminance in the binarized image.

ステップS5では、画像処理部10が、1フレーム分(エリア1、エリア2、…、エリアn)の画像入力が終了したか否かを判定する。YESの場合にはステップS6へ移行し、NOの場合にはステップS2へ移行する。   In step S5, the image processing unit 10 determines whether image input for one frame (area 1, area 2,..., Area n) has been completed. If YES, the process proceeds to step S6. If NO, the process proceeds to step S2.

ステップS6では、画像処理部10が、前後の距離の複数画像にまたがるオブジェクトの検出を行う。   In step S6, the image processing unit 10 detects an object that covers a plurality of images at a distance in the front and rear directions.

ステップS7では、画像処理部10が前後の距離の複数画像にまたがるオブジェクトが検出されたかどうかを判断し、検出されたならばステップS8へ進み、検出されなかったならば、ステップS10へ進む。   In step S7, the image processing unit 10 determines whether or not an object that covers a plurality of images at the front and rear distances is detected. If detected, the process proceeds to step S8, and if not detected, the process proceeds to step S10.

ステップS8では、画像処理部10が、検出されたオブジェクトの重なる部分について、それぞれの画像における平均輝度を算出する。   In step S8, the image processing unit 10 calculates the average luminance in each image for the portion where the detected objects overlap.

ステップS9では、画像処理部10が、重なる部分の平均輝度の最も高い距離をそのオブジェクトの距離と判定する。   In step S9, the image processing unit 10 determines the distance with the highest average luminance of the overlapping portion as the distance of the object.

ステップS10では、距離の判定されたオブジェクトを、色や輝度により距離情報を伴う画像として、距離画像データを生成し、リターンへ移行する。   In step S10, distance image data is generated by using the object whose distance is determined as an image accompanied by distance information by color and brightness, and the process proceeds to return.

次に、作用を説明する。
[距離画像データ生成作用]
タイミングコントローラ9は、高速度カメラ8により撮像される撮像画像が、狙った撮像エリアから帰ってくる反射光のタイミングとなるように、ディレイ時間tDを設定し、高速度カメラ8の撮像タイミングを制御する。狙った撮像エリアに物体が存在している場合、投光器5から出射された光が撮像エリアから戻ってくる時間は、自車両と撮像エリアまでの距離(撮像対象距離)を光が往復する時間となるため、ディレイ時間tDは、撮像対象距離と光速度から求めることができる。
Next, the operation will be described.
[Distance image data generation function]
The timing controller 9 controls the imaging timing of the high-speed camera 8 by setting the delay time tD so that the captured image captured by the high-speed camera 8 becomes the timing of the reflected light returning from the target imaging area. To do. When an object is present in the target imaging area, the time for the light emitted from the projector 5 to return from the imaging area is the time for the light to reciprocate the distance between the host vehicle and the imaging area (imaging target distance). Therefore, the delay time tD can be obtained from the imaging target distance and the speed of light.

上記方法で得られた高速度カメラ8の撮像画像において、撮像エリアに物体が存在する場合、当該物体の位置に対応する画素の輝度値データは、反射光の影響を受け、他の画素の輝度値データよりも高い値を示す。これにより、各画素の輝度値データに基づいて、狙った撮像エリアに存在する物体との距離を求めることができる。   In the captured image of the high-speed camera 8 obtained by the above method, when an object exists in the imaging area, the luminance value data of the pixel corresponding to the position of the object is affected by the reflected light, and the luminance of other pixels Indicates a value higher than the value data. Thereby, based on the luminance value data of each pixel, the distance from the object existing in the targeted imaging area can be obtained.

さらに、実施例1では、ディレイ時間tDを変化させながら撮像エリア1〜nの撮像画像を取得する。続いて、各撮像画像において、2値化(ステップS3)、ラベリング(ステップS4)を行い、ラベリングされたオブジェクトの前後の距離において重なる部分の輝度値データを比較し、最も高い輝度値データを当該オブジェクトの距離とし、撮像範囲(640×480)のオブジェクトと距離の情報を持つデータ(距離画像データ)を生成する。   Furthermore, in the first embodiment, captured images of the imaging areas 1 to n are acquired while changing the delay time tD. Subsequently, binarization (step S3) and labeling (step S4) are performed on each captured image, the luminance value data of the overlapping portions at the distance before and after the labeled object are compared, and the highest luminance value data is Data (distance image data) having distance information and distance information of the object in the imaging range (640 × 480) is generated.

従来のレーザレーダやステレオカメラを用いた距離検出方法では、雨、霧や雪などの影響を受けやすく、信号レベルに対するノイズレベルが大きくなる(SN比が小さい)ため、悪天候時の信頼性が低い。なお、悪天候の影響を受けにくいミリ波レーダを用いた場合、距離検出の信頼性は高くなるが、ミリ波レーダの信号から物体認識(物体の特定)を行うのは困難であり、別途カメラ画像が必要となる。そして、悪天候時にはカメラ画像が不明瞭となるため、正確な物体認識を行うことは困難である。   Conventional distance detection methods using laser radars and stereo cameras are susceptible to rain, fog, snow, etc., and the noise level with respect to the signal level is large (the SN ratio is small), so the reliability in bad weather is low. . When using a millimeter wave radar that is not easily affected by bad weather, the reliability of distance detection is high, but it is difficult to perform object recognition (object identification) from the millimeter wave radar signal. Is required. Further, since the camera image becomes unclear during bad weather, it is difficult to perform accurate object recognition.

これに対し、実施例1では、狙った撮像エリアから帰ってくる反射波のみを撮像画像に反映させるため、雨、霧や雪などの影響により屈曲した光、すなわち、ノイズの混入レベルを低く抑え、高いSN比を得ることができる。つまり、悪天候や夜間にかかわらず、高い距離検出精度を得ることができる。
そして、生成された距離画像データにより、画像から検出される物体(オブジェクト)の距離が分かるため、その後パターンマッチング等の手法を用いて物体認識を行う場合、物体との距離を瞬時に把握できる。
On the other hand, in the first embodiment, only reflected waves returning from the target imaging area are reflected in the captured image, so that the light bent due to the influence of rain, fog, snow, or the like, that is, the noise mixing level is kept low. High signal-to-noise ratio can be obtained. That is, high distance detection accuracy can be obtained regardless of bad weather or night.
And since the distance of the object (object) detected from an image is known from the produced | generated distance image data, when performing object recognition using methods, such as pattern matching after that, the distance with an object can be grasped | ascertained instantaneously.

さらに、実施例1では、撮像エリアを連続的に変化させて複数の撮像画像を取得し、各撮像画像を比較して各画素の距離を検出しているため、自車両前方の状況を連続的に、かつ、広範囲に亘って把握できる。例えば、自車両と先行車両との間に歩行者が飛び出してきた状況であっても、先行車と歩行者の距離をそれぞれ同時に把握でき、警報による運転者への情報提示や自動ブレーキ等の車両制御を行うことが可能である。   Furthermore, in the first embodiment, the captured area is continuously changed to acquire a plurality of captured images, and the captured images are compared to detect the distance of each pixel. In addition, it can be grasped over a wide range. For example, even in the situation where a pedestrian has jumped between the host vehicle and the preceding vehicle, the distance between the preceding vehicle and the pedestrian can be grasped at the same time. Control can be performed.

図6は、自車両前方の異なる位置に4人の歩行者A〜Dが存在している状況を示し、自車両と各歩行者との距離の関係は、A<B<C<Dとする。
このとき、実施例1では、1つの物体からの反射光が連続する複数の撮像エリアにおける撮像画像のオブジェクトを構成する画素に反映されるように、撮像エリアの一部をオーバーラップさせている。このため、各歩行者に対応するオブジェクトを構成する画素の時間的な輝度変化は、図7に示すように、歩行者の位置でピークを取る三角形の特性を示す。
FIG. 6 shows a situation in which four pedestrians A to D exist at different positions in front of the host vehicle, and the relationship between the distance between the host vehicle and each pedestrian is A <B <C <D. .
At this time, in the first embodiment, a part of the imaging area is overlapped so that the reflected light from one object is reflected on the pixels constituting the object of the captured image in the plurality of imaging areas in which the reflected light is continuous. For this reason, the temporal luminance change of the pixels constituting the object corresponding to each pedestrian shows a triangular characteristic that takes a peak at the position of the pedestrian as shown in FIG.

なお、距離画像データは、警報や車両制御に用いるデータであるため、ある程度の演算速度が要求される以上、撮像エリアを無限に細かく設定することは時間的に不可能であるが、1つの物体からの反射光が複数の撮像画像の含まれるようにすることで、図8に示すように、オブジェクトを構成する画素の時間的な輝度変化を上記特性に近似させ、三角形部分のピークと対応する撮像エリアを、当該画素における物体の距離とすることで、検出精度を高めることができる。   Since the distance image data is data used for alarms and vehicle control, it is impossible to set an imaging area infinitely finely as long as a certain calculation speed is required. By making the reflected light from the plurality of captured images included, as shown in FIG. 8, the temporal luminance change of the pixels constituting the object is approximated to the above characteristics, and corresponds to the peak of the triangular portion. The detection accuracy can be increased by setting the imaging area to the distance of the object in the pixel.

[オブジェクトの距離判定作用]
実施例1の距離画像生成装置2では、上記説明のように、距離画像データ生成の際に、各距離画像に対して、2値化、ラベリングを行っている。
この点について、さらに詳細に図を用いて説明する。
図9は通常の画像と同様に充分に長いゲート時間(1/60sec程度)で撮像した撮像画像の例を示す図である。図10は図9の撮像範囲を、8つの距離画像でそれぞれ撮像した撮像画像の例を示す図である。図11は検出されたうちの一つのオブジェクトについて、重なっている部分の例を示す図である。図12は図9の撮像範囲についてのオブジェクト検出結果の例を示す図である。
[Object distance judgment]
In the distance image generating apparatus 2 of the first embodiment, as described above, binarization and labeling are performed on each distance image when generating the distance image data.
This point will be described in more detail with reference to the drawings.
FIG. 9 is a diagram illustrating an example of a captured image captured with a sufficiently long gate time (about 1/60 sec) in the same manner as a normal image. FIG. 10 is a diagram illustrating an example of captured images obtained by capturing the imaging range of FIG. 9 with eight distance images. FIG. 11 is a diagram illustrating an example of an overlapped portion of one detected object. FIG. 12 is a diagram illustrating an example of an object detection result for the imaging range of FIG.

図9に示すような撮像範囲を図10に示すように8つの距離に分けて、タイミング制御を行い撮像したとする。
本実施例では、それぞれの画像(図10(a)〜(h))について、2値化処理(ステップS3)、ラベリング処理(ステップS4)が行われる。
これにより、図10(a)〜(h)に示すように複数のオブジェクトが検出されることになる。このオブジェクトを符号101〜106に図の(a)〜(h)を組合せて例えば101aというように示す。検出されない図では、欠番となる。
Assume that the imaging range as shown in FIG. 9 is divided into eight distances as shown in FIG.
In this embodiment, binarization processing (step S3) and labeling processing (step S4) are performed for each image (FIGS. 10A to 10H).
As a result, a plurality of objects are detected as shown in FIGS. This object is indicated by reference numerals 101 to 106, for example, 101a by combining (a) to (h) in the figure. In the figure that is not detected, it is a missing number.

図10(a)〜(h)の距離は、順に遠くなるものとし、上記説明したように輝度データが図8のように得られる状態にするため、オブジェクトは、前後の距離にまたがって検出されることになる(ステップS6,S7)。
その場合に例えば、オブジェクト101a〜101gが検出される場合には(図10(a)〜(g)参照)、図11に示すようにこれらを重ねる。すると、オブジェクト101a〜101gの全てに重なる部分201が検出される。
The distances in FIGS. 10 (a) to 10 (h) are assumed to increase in order, and in order to obtain the luminance data as shown in FIG. 8 as described above, the object is detected across the front and rear distances. (Steps S6 and S7).
In this case, for example, when the objects 101a to 101g are detected (see FIGS. 10A to 10G), they are overlapped as shown in FIG. Then, a portion 201 that overlaps all of the objects 101a to 101g is detected.

この重なる部分201に対して、図10(a)〜(g)のそれぞれの画像において、この重なる部分201を構成する画素の輝度値を合計し、画素数で割って、平均輝度値を算出する。すると、各距離ごとに平均輝度値が算出されることになる。
このデータから、最も高い平均輝度値の距離をこのオブジェクトの距離とする。
このようにして、各オブジェクトに対して距離を判定する(図12参照)。
With respect to the overlapping portion 201, in each of the images of FIGS. 10A to 10G, the luminance values of the pixels constituting the overlapping portion 201 are summed and divided by the number of pixels to calculate an average luminance value. . Then, an average luminance value is calculated for each distance.
From this data, the distance of the highest average luminance value is set as the distance of this object.
In this way, the distance is determined for each object (see FIG. 12).

本実施例の距離画像データとしては、同一位置の画素、つまり例えば座標(1、1)における各距離の輝度を見て、最も高い輝度から画素毎の距離データを判定し、距離画像データを作成することが考えられる。つまり画素ごとに距離を持つ画像である。
この場合、次の処理として、物体認識処理部3において、オブジェクトの判定を行うが、ノイズ等によりオブジェクトを構成する画素が均一な距離データを持たないため、オブジェクトの判断と距離の特定が難しくなる。
As the distance image data of this embodiment, the distance data for each pixel is determined from the highest luminance by looking at the pixels at the same position, that is, for example, the distance at each coordinate (1, 1), and the distance image data is created. It is possible to do. That is, the image has a distance for each pixel.
In this case, as the next processing, the object recognition processing unit 3 determines the object. However, since the pixels constituting the object do not have uniform distance data due to noise or the like, it is difficult to determine the object and specify the distance. .

本実施例では、各距離画像の処理において、オブジェクトの検出を行い、オブジェクト単位で距離の判定を行うため、オブジェクトの判断と距離を容易な処理で確実に行う。   In this embodiment, in the processing of each distance image, the object is detected and the distance is determined in units of objects, so that the determination of the object and the distance are surely performed with easy processing.

次に、効果を説明する。
実施例1の距離画像データ生成装置2にあっては、以下に列挙する効果を奏する。
Next, the effect will be described.
The distance image data generation device 2 according to the first embodiment has the following effects.

(1)自車両前方に所定周期でパルス光を投光する投光器5と、ターゲット距離に応じて設定される撮像タイミングでターゲット距離から帰ってくる反射光を撮像するイメージインテンシファイア7b及び高速度カメラ8と、ターゲット距離が連続的に変化するように撮像タイミングを制御するタイミングコントローラ9と、イメージインテンシファイア7b及び高速度カメラ8により得られたターゲット距離の異なる複数の撮像画像ごとにオブジェクトを検出し、オブジェクトの輝度に基づいて、前記オブジェクトまでの距離を表す距離画像データを生成する画像処理部10を備えたため、自車両前方の状況を連続的に把握できる。また、距離情報を伴うオブジェクトを容易な処理で確実に検出することができる。   (1) A projector 5 that projects pulsed light in front of the host vehicle at a predetermined period, an image intensifier 7b that captures reflected light returning from the target distance at an imaging timing set according to the target distance, and a high speed For each of a plurality of captured images with different target distances obtained by the camera 8, a timing controller 9 that controls the imaging timing so that the target distance changes continuously, the image intensifier 7b, and the high-speed camera 8. Since the image processing unit 10 that detects and generates distance image data representing the distance to the object based on the brightness of the object is provided, it is possible to continuously grasp the situation in front of the host vehicle. In addition, an object with distance information can be reliably detected with easy processing.

(2)上記(1)において、画像処理部10は、前後の連続する距離画像に存在する同じオブジェクトの最も高い輝度の距離を、オブジェクトの距離とするため、距離情報を伴うオブジェクトを容易な処理で確実に検出することができる。   (2) In the above (1), the image processing unit 10 uses the highest brightness distance of the same object existing in the preceding and succeeding distance images as the object distance, so that an object with distance information can be easily processed. Can be reliably detected.

(3)上記(1)又は(2)において、画像処理部10は、前後の連続する距離画像に存在する同じオブジェクトの重なる部分に対して、重なる部分を構成する画素の輝度データから平均輝度値を算出し、最も高い輝度平均値の距離をオブジェクトの距離とするステップS7〜S9の処理を備えたため、前後の連続する距離画像で、重なる部分を設定すると、それは、同じ面積(同じ画素数で構成される)となる。この同じ面積での平均輝度値を比較すれば、図8に示す状態のピークに近い距離を選択することができ、オブジェクトの距離を正確に判定することができる。
そして、画素ごとの距離画像からオブジェクトを判定するのに比較して、容易な処理で確実にオブジェクトの検出ができる。
なお、本明細書中でオブジェクトとは、その後にパターンマッチングされ認識される物体を狭義ではさすが、処理途中では、広くラベリングされた際に、ノイズ等ではないと処理されたものを指すものとする。
(3) In the above (1) or (2), the image processing unit 10 calculates the average luminance value from the luminance data of the pixels constituting the overlapping portion with respect to the overlapping portion of the same object existing in the preceding and succeeding distance images. Since the processing of steps S7 to S9 is performed in which the distance of the highest luminance average value is set as the object distance, when overlapping portions are set in the consecutive distance images before and after, the same area (with the same number of pixels) is set. Configured). If the average luminance values in the same area are compared, a distance close to the peak in the state shown in FIG. 8 can be selected, and the distance of the object can be accurately determined.
And compared with judging an object from the distance image for every pixel, an object can be detected reliably with easy processing.
In the present specification, an object refers to an object that is recognized by pattern matching thereafter, but in a narrow sense, means an object that has been processed as not noise or the like when being widely labeled during processing. .

(他の実施例)
以上、本発明を実施するための最良の形態を、実施例に基づき説明したが、本発明の具体的な構成については、実施例の構成に限らず、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計変更や追加等は許容される。
(Other examples)
The best mode for carrying out the present invention has been described above based on the embodiment. However, the specific configuration of the present invention is not limited to the configuration of the embodiment, and it relates to each claim of the claims. Design changes and additions are allowed without departing from the spirit of the invention.

例えば、投光周期、投光時間、ゲート時間、撮像対象幅、撮像対象距離の変化量、1フレーム中の撮像エリア数は、撮像手段の性能や距離画像データ生成手段の性能に応じて適宜設定することができる。
また、実施例1では、2値化、ラベリングまでを画像処理部10で行い、物体認識処理部3で、その後のパターンマッチングを行うようにしたが、画像処理部10でパターンマッチングまでを行い、距離画像データにパターンマッチングした物体(狭義のオブジェクト)を表現するようにしてもよい。
なお、実施例1の距離画像データには、オブジェクト以外の部分には、距離画像での同じ位置となる画素データの輝度に基づき、距離データを判定して、画素ごとの距離データからなる距離画像としてもよい。また、必要がない場合には、検出されたオブジェクトのみで構成される距離画像としてもよい。
For example, the light projection period, the light projection time, the gate time, the imaging target width, the amount of change in the imaging target distance, and the number of imaging areas in one frame are appropriately set according to the performance of the imaging means and the performance of the distance image data generation means can do.
In the first embodiment, binarization and labeling are performed by the image processing unit 10, and the object recognition processing unit 3 performs subsequent pattern matching. However, the image processing unit 10 performs pattern matching, An object (narrowly defined object) pattern-matched to the distance image data may be expressed.
In the distance image data according to the first embodiment, the distance image is determined based on the brightness of the pixel data at the same position in the distance image, and the distance image including the distance data for each pixel is included in the portion other than the object. It is good. When there is no need, a distance image composed only of detected objects may be used.

実施例1の障害物検出装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the obstruction detection apparatus 1 of Example 1. FIG. 1つの撮像エリアを撮像する際の、投光器5の動作(投光動作)とゲート7aの動作(カメラゲート動作)との時間的な関係を示す図である。It is a figure which shows the temporal relationship between the operation | movement (light projection operation | movement) of the light projector 5, and the operation | movement (camera gate operation | movement) of the gate 7a at the time of imaging one imaging area. 撮像エリアの一部がオーバーラップする状態を示す図である。It is a figure which shows the state which a part of imaging area overlaps. 撮像エリアを無限に増やして撮像を行った場合の時間的な輝度変化を示す模式図である。It is a schematic diagram which shows a temporal luminance change at the time of imaging by increasing an imaging area infinitely. 実施例1の画像処理部10で実行される距離画像データ生成制御処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of distance image data generation control processing executed by the image processing unit 10 according to the first embodiment. 自車両前方の異なる位置に4人の歩行者A〜Dが存在している状況を示す図である。It is a figure which shows the condition where four pedestrians AD exist in the different position ahead of the own vehicle. 各歩行者A〜Bに対応する画素の時間的な輝度変化を示す模式図である。It is a schematic diagram which shows the temporal luminance change of the pixel corresponding to each pedestrian A-B. 実施例1の距離画像データ生成作用を示す図である。It is a figure which shows the distance image data generation effect | action of Example 1. FIG. 通常の画像と同様に充分に長いゲート時間(1/60sec程度)で撮像した撮像画像の例を示す図である。It is a figure which shows the example of the captured image imaged with sufficiently long gate time (about 1/60 second) similarly to a normal image. 図9の撮像範囲を、8つの距離画像でそれぞれ撮像した撮像画像の例を示す図である。It is a figure which shows the example of the captured image which each imaged the imaging range of FIG. 9 with eight distance images. 検出されたうちの一つのオブジェクトについて、重なっている部分の例を示す図である。It is a figure which shows the example of the part which has overlapped about one of the detected objects. 図9の撮像範囲についてのオブジェクト検出結果の例を示す図である。It is a figure which shows the example of the object detection result about the imaging range of FIG.

符号の説明Explanation of symbols

1 障害物検出装置
2 距離画像データ生成装置
3 物体認識処理部
4 判断部
5 投光器(投光手段)
6 対物レンズ
7 光増倍部
7a ゲート
7b イメージインテンシファイア
8 高速度カメラ(撮像手段)
9 タイミングコントローラ(タイミング制御手段)
10 画像処理部(距離画像データ生成手段)
P (距離画像データの常時発光箇所を示す)符号
101a〜101g (検出された)オブジェクト
102a〜102h (検出された)オブジェクト
103a〜103e (検出された)オブジェクト
104d〜104h (検出された)オブジェクト
105e〜105h (検出された)オブジェクト
106e〜106h (検出された)オブジェクト
201 (同じオブジェクトで距離の異なるオブジェクトが)重なる部分
DESCRIPTION OF SYMBOLS 1 Obstacle detection apparatus 2 Distance image data generation apparatus 3 Object recognition process part 4 Judgment part 5 Light projector (light projection means)
6 Objective lens 7 Photomultiplier 7a Gate 7b Image intensifier 8 High-speed camera (imaging means)
9 Timing controller (timing control means)
10 Image processing unit (distance image data generating means)
P (indicating the constant light emission location of the distance image data) 101a to 101g (detected) objects 102a to 102h (detected) objects 103a to 103e (detected) objects 104d to 104h (detected) objects 105e ~ 105h (detected) objects 106e to 106h (detected) objects 201 (overlapping objects with the same object but different distances)

Claims (3)

自車両前方に所定周期でパルス光を投光する投光手段と、
ターゲット距離に応じて設定される撮像タイミングで前記ターゲット距離から帰ってくる反射光を撮像する撮像手段と、
前記ターゲット距離が連続的に変化するように前記撮像タイミングを制御するタイミング制御手段と、
前記撮像手段により得られたターゲット距離の異なる複数の撮像画像ごとにオブジェクトを検出し、前記オブジェクトの輝度に基づいて、前記オブジェクトまでの距離を表す距離画像データを生成する距離画像データ生成手段と、
を備えた、
ことを特徴とする車両用距離画像データ生成装置。
Light projecting means for projecting pulsed light in front of the host vehicle at a predetermined period;
Imaging means for imaging reflected light returning from the target distance at an imaging timing set according to the target distance;
Timing control means for controlling the imaging timing so that the target distance changes continuously;
Distance image data generating means for detecting an object for each of a plurality of captured images having different target distances obtained by the imaging means, and generating distance image data representing the distance to the object based on the luminance of the object;
With
A vehicular distance image data generating apparatus characterized by the above.
請求項1に記載の車両用距離画像データ生成装置において、
前記距離画像データ生成手段は、
前後の連続する距離画像に存在する同じオブジェクトの最も高い輝度の距離を、前記オブジェクトの距離とする、
ことを特徴とする車両用距離画像データ生成装置。
The vehicle distance image data generation device according to claim 1,
The distance image data generation means includes
The distance of the highest brightness of the same object existing in the consecutive distance images before and after is set as the distance of the object.
A vehicular distance image data generating apparatus characterized by the above.
請求項1又は請求項2に記載の車両用距離画像データ生成装置において、
前記距離画像データ生成手段は、
前後の連続する距離画像に存在する同じオブジェクトの重なる部分に対して、前記重なる部分を構成する画素の輝度データから平均輝度値を算出し、最も高い輝度平均値の距離を前記オブジェクトの距離とする、
ことを特徴とする車両用距離画像データ生成装置。
In the vehicular distance image data generating device according to claim 1 or 2,
The distance image data generation means includes
For an overlapping portion of the same object existing in the preceding and following consecutive distance images, an average luminance value is calculated from the luminance data of the pixels constituting the overlapping portion, and the distance of the highest luminance average value is set as the distance of the object. ,
A vehicular distance image data generating apparatus characterized by the above.
JP2008134865A 2008-05-23 2008-05-23 Range image data generating device for vehicle and method for generating range image data Pending JP2009281895A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008134865A JP2009281895A (en) 2008-05-23 2008-05-23 Range image data generating device for vehicle and method for generating range image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008134865A JP2009281895A (en) 2008-05-23 2008-05-23 Range image data generating device for vehicle and method for generating range image data

Publications (1)

Publication Number Publication Date
JP2009281895A true JP2009281895A (en) 2009-12-03

Family

ID=41452489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008134865A Pending JP2009281895A (en) 2008-05-23 2008-05-23 Range image data generating device for vehicle and method for generating range image data

Country Status (1)

Country Link
JP (1) JP2009281895A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014515130A (en) * 2011-03-10 2014-06-26 マイクロソフト コーポレーション Theme-based expansion of photorealistic views
WO2022172912A1 (en) * 2021-02-10 2022-08-18 株式会社デンソー Information collection control device, information collection control method, and information collection control program
WO2022172719A1 (en) * 2021-02-15 2022-08-18 パナソニックIpマネジメント株式会社 Object information generation system, object information generation method, and object information generation program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014515130A (en) * 2011-03-10 2014-06-26 マイクロソフト コーポレーション Theme-based expansion of photorealistic views
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
WO2022172912A1 (en) * 2021-02-10 2022-08-18 株式会社デンソー Information collection control device, information collection control method, and information collection control program
JP2022122685A (en) * 2021-02-10 2022-08-23 株式会社デンソー Device, method, and program for controlling information collection
JP7363831B2 (en) 2021-02-10 2023-10-18 株式会社デンソー Information collection control device, information collection control method, information collection control program
WO2022172719A1 (en) * 2021-02-15 2022-08-18 パナソニックIpマネジメント株式会社 Object information generation system, object information generation method, and object information generation program

Similar Documents

Publication Publication Date Title
JP2009257983A (en) Device and method for generating distance image data for vehicle
JP2009257981A (en) Device for generating distance image data for vehicle
JP6868570B2 (en) Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device
JP6851985B2 (en) Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device
JP6471528B2 (en) Object recognition apparatus and object recognition method
JP2010170449A (en) Device and method for creating range image data for vehicle
JP2010061304A (en) Vehicular distance image data generation device
JP2010121995A (en) Device for generating distance image data for vehicle
US11040649B2 (en) Vehicular sensor and vehicle provided with same
JP2010066221A (en) Range image data generating device for vehicle
JP6851986B2 (en) Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device
JPH07332966A (en) Distance-measuring apparatus for vehicle
JP6766071B2 (en) Image acquisition device for vehicles and vehicles equipped with it
JP2009257982A (en) Device for generating distance image data for vehicle
JP2010054461A (en) Device for generating distance image data for vehicle
JP2010071704A (en) Device and method for generating distance image data for vehicle
JP2009282906A (en) Range image data generation device for vehicle
JP2009258015A (en) Apparatus and method for generating range image data for vehicle
JP2010212042A (en) Led lighting device
US20190016274A1 (en) Image acquisition device to be used by vehicle and vehicle provided with same
JP2009281895A (en) Range image data generating device for vehicle and method for generating range image data
JP2010145255A (en) Apparatus and method for creating vehicle-use distance image data
US20220214434A1 (en) Gating camera
JP2009259070A (en) Device for generating distance image data for vehicle
EP4303850A1 (en) Object detection method and object detection device