WO2014054753A1 - Image processing device and device for monitoring area in front of vehicle - Google Patents

Image processing device and device for monitoring area in front of vehicle Download PDF

Info

Publication number
WO2014054753A1
WO2014054753A1 PCT/JP2013/076980 JP2013076980W WO2014054753A1 WO 2014054753 A1 WO2014054753 A1 WO 2014054753A1 JP 2013076980 W JP2013076980 W JP 2013076980W WO 2014054753 A1 WO2014054753 A1 WO 2014054753A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
distance
vehicle
imaging
image processing
Prior art date
Application number
PCT/JP2013/076980
Other languages
French (fr)
Japanese (ja)
Inventor
山下 龍麿
Original Assignee
アルプス電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルプス電気株式会社 filed Critical アルプス電気株式会社
Publication of WO2014054753A1 publication Critical patent/WO2014054753A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • FIG. 10 is a front view of a vehicle 200 equipped with the vehicle exterior monitoring device described in Patent Document 1.
  • FIG. 10 a total of four cameras, that is, a long-distance CCD camera 201, 202 and a short-distance CCD camera 211, 212 are mounted.
  • the image is input to the stereo image processing apparatus, the amount of positional deviation on the left and right images is determined, and the distance to the object is calculated.
  • the present invention is to solve the above-described problems, and in particular, by using a pair of imaging means, an image with a wide visual field range, an image with a narrow visual field range, and an image as a stereo camera that combines these images are simultaneously displayed.
  • the present invention provides an image processing device and a vehicle forward monitoring device that can estimate the distance to an object that has been acquired and image-recognized.
  • the image processing unit detect a color feature included in the first image and perform a process of recognizing the object as a color feature object related to the color feature. .
  • the object When the object deviates from the visual field range of the second imaging means, it is preferable that the object is continuously tracked with the first image acquired by the first imaging means.
  • the feature point recognized as the target object deviates from the second image captured in the visual field range of the second imaging unit, the feature point continues to be recognized in the first image having a wide visual field range. be able to. Therefore, the extracted object is continuously tracked. Thereby, even after deviating from the visual field range of the second image pickup means, it is possible to detect a change in the image position of the feature point with time in the first image and to estimate the distance.
  • the image processing apparatus acquires a first image having a wide visual field range and a second image having a common area with the first image. Thereby, the stereo image of this 2nd image and the 3rd image cut out corresponding to the common area
  • the camera coordinate system is a coordinate system possessed by the camera, with the center of the image as the origin, the right direction is the positive direction of the X axis, the downward direction is the positive direction of the Y axis, and the front direction of the camera is the positive direction of the Z axis. Represents a direction.
  • FIG. 4 is an explanatory diagram illustrating image correction of the first image obtained by imaging the checkerboard.
  • FIG. 4A shows an image before the image is corrected
  • FIG. 4B shows an image after the correction.
  • the distortion removal process for the image information captured by the second imaging unit 20 can be performed in the same manner. In this way, even if the first imaging unit 10 and the second imaging unit 20 have unique lens characteristics and are not in an ideal parallel posture, it can be corrected to an ideal image. .
  • the color feature of the signal tracked in FIG. 7A is recognized, when the signal changes from a red signal to a blue signal, it is recognized as a change in the color feature, and the fact that the color has changed is output to the display image. Or sound a signal.
  • the image processing necessary for stereo distance measurement does not include extra peripheral image data, and therefore has a secondary effect of high processing speed.
  • a distance to a stereo distance measuring object that is obtained by simultaneously acquiring an image of a wide field of view, an image of a narrow field of view, and an image as a stereo camera by a pair of imaging means each having one lens. Can be estimated. Therefore, an image processing apparatus capable of performing equivalent image processing without using two stereo cameras can be provided.
  • the object can be recognized as a stereo distance measurement object, and the image positions of the feature points in the third image and the corresponding points in the second image can be recognized.
  • the shift amount of the image position can be measured based on the image position.
  • the distance from the imaging position of the image processing device 2 to the stereo distance measurement object can be estimated from the amount of image position deviation.
  • the feature point recognized as the target object deviates from the second image captured in the visual field range of the second imaging unit 20
  • the feature point is detected in the first image having a wide visual field range. Can continue to recognize. Therefore, the extracted object can be continuously tracked within the visual field range of the display image data sent to the display image output unit 44.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 Provided is an image processing device which simultaneously acquires an image with a wide field of view, an image with a narrow field of view, and an image as a stereo camera, and which is capable of estimating the distance to an object. Also provided is a device for monitoring the area in front of a vehicle. The imaging device comprises: a first imaging means (10) for capturing first image information; a second imaging means (20) for capturing second image information having a narrow field of view and having an area in common with the first image information; and an image recognition means (40) that recognizes objects based on the image information. The image recognition means is equipped with: an image processing unit (42) that acquires first and second images obtained by correcting first image information and second image information, and extracts a third image which is made to correspond to the common area from the first image, and a distance estimating means (43) which extracts characteristic points contained in a third image as a stereo range object, searches for corresponding points contained in a second image that correspond to the characteristic points, and estimates the distance.

Description

画像処理装置及び車両前方監視装置Image processing apparatus and vehicle forward monitoring apparatus
 本発明は、画像認識した対象物までの距離が推定できる画像処理装置及び車両前方監視装置に関する。 The present invention relates to an image processing apparatus and a vehicle forward monitoring apparatus that can estimate a distance to an object whose image has been recognized.
 車両にカメラを搭載して車両前方を監視し、前方の車両や障害物を画像情報から抽出し、それらに衝突する前に警告を発したり、危険回避操作としてブレーキを作動させたりする車両前方監視装置が知られている。 Vehicle front monitoring by mounting a camera on the vehicle, extracting the vehicle and obstacles ahead from the image information, issuing a warning before colliding with them, and operating the brake as a danger avoidance operation The device is known.
 画像情報を基に車両前方の対象物との距離を推定する装置では、ステレオカメラと呼ばれる一対の撮像手段によって撮像した画像情報を基に、三角測量の原理を応用して対象物までの距離を算出している。 In an apparatus that estimates the distance to an object in front of a vehicle based on image information, the distance to the object is calculated by applying the principle of triangulation based on image information captured by a pair of imaging means called stereo cameras. Calculated.
 ステレオカメラを用いた距離算出の精度は、画像位置の相対的な変化を検出する精度に依存しているので、遠方の対象物に対して推定可能な距離は、撮像された画像情報の量と撮像手段の光学特性とで制約される。このため、時速100km程度の走行時に適用される車両前方監視装置は、カメラの焦点距離を長くして視野範囲を狭めることによって精度を確保した遠距離用のカメラが用いられた。 Since the accuracy of distance calculation using a stereo camera depends on the accuracy of detecting the relative change in the image position, the distance that can be estimated for a distant object is the amount of image information captured. It is limited by the optical characteristics of the imaging means. For this reason, as a vehicle front monitoring device applied when traveling at a speed of about 100 km / h, a long-distance camera is used which ensures accuracy by increasing the focal length of the camera and narrowing the visual field range.
 一方、低速走行時においては、車両の斜め前方まで認識できることが必要である。また高速走行中において、斜め前方から自車両の直前に割り込んできた他車両を検出するような場合には、広い視野範囲の画像情報を確保しておく必要があった。このため、カメラの焦点距離を短くして視野範囲を確保した近距離用のカメラが用いられた。 On the other hand, when driving at low speed, it is necessary to be able to recognize the vehicle diagonally forward. Also, when detecting another vehicle that has entered the vehicle immediately before the host vehicle while traveling at a high speed, it is necessary to ensure image information in a wide field of view. For this reason, a short-distance camera was used in which the focal length of the camera was shortened to ensure a field of view range.
 特許文献1には、近距離用のCCDカメラと遠距離用のCCDカメラとをそれぞれステレオカメラとして持ち、どちらかのステレオカメラの画像処理を状況に応じて切替える構造の車外監視装置が開示されている。 Patent Document 1 discloses an out-of-vehicle monitoring device having a structure in which a short-distance CCD camera and a long-distance CCD camera are respectively provided as stereo cameras, and image processing of either stereo camera is switched depending on the situation. Yes.
 図10は、特許文献1に記載の車外監視装置を備える車両200の正面図である。図10に示すように、遠距離用のCCDカメラ201、202と近距離用のCCDカメラ211、212との合計4台のカメラが搭載されている、遠距離用又は近距離用のどちらかの画像がステレオ画像処理装置に入力されて、左右画像上の位置のずれ量が決定され、対象物までの距離が算出される。 FIG. 10 is a front view of a vehicle 200 equipped with the vehicle exterior monitoring device described in Patent Document 1. FIG. As shown in FIG. 10, a total of four cameras, that is, a long- distance CCD camera 201, 202 and a short- distance CCD camera 211, 212 are mounted. The image is input to the stereo image processing apparatus, the amount of positional deviation on the left and right images is determined, and the distance to the object is calculated.
 特許文献2には、近距離撮影用カメラのレンズと遠距離撮影用カメラのレンズとをそれぞれステレオカメラのレンズとして持ち、それぞれが撮像する画像を別々の撮像領域(撮像面)に形成させた構造の撮像装置が開示されている。近距離撮影用ステレオカメラのレンズと遠距離撮影用ステレオカメラのレンズとを組み合わせて車両近傍から遠方まで、距離測定に適した鮮明な画像情報を得られるとともに、それらの画像を切り替えることなく取得できる。 Patent Document 2 discloses a structure in which a lens for a short-distance shooting camera lens and a lens for a long-distance shooting camera are each used as a stereo camera lens, and images captured by the respective lenses are formed in separate imaging regions (imaging surfaces). An imaging apparatus is disclosed. Combining the lens of a stereo camera for short-distance shooting and the lens of a stereo camera for long-distance shooting, it is possible to obtain clear image information suitable for distance measurement from the vicinity of the vehicle to a distance, and acquire these images without switching. .
 このことから、遠距離撮影用ステレオカメラの作動中である高速走行中において、斜め前方から自車両の直前に他車両等が割り込んで来たような場合でも、近距離撮影用ステレオカメラの画像情報によって割り込み車両を検出し、直ちに警告や危険回避操作に繋げることができる。 Therefore, even when another vehicle or the like has entered the vehicle just before the host vehicle from diagonally forward during high-speed driving, which is the operation of the stereo camera for long-distance shooting, the image information of the stereo camera for short-distance shooting It is possible to detect an interrupting vehicle and immediately connect to a warning or danger avoidance operation.
特開平5-265547号公報Japanese Patent Laid-Open No. 5-265547 特開2010-271143号公報JP 2010-271143 A
 しかしながら、上記従来技術の構造においては、近距離撮影用ステレオカメラのレンズと遠距離撮影用ステレオカメラのレンズとを用いることから、少なくともレンズが4つ必要となる。また、撮像素子は、多数の画素の集合体であり、測定精度を向上させるためには、画素の数を増やす必要があった。画素数の増加は撮像素子の大型化だけでなく、画素数に対応する電子情報処理量の増加やそれに必要な処理速度の高速化など、システム規模にも影響する。このように、2組のステレオカメラに相当する画像を同時に撮像する撮像装置は、撮像素子の画素数が2倍になるため、システムとしても高価で大がかりなものになりやすかった。そのため、レンズを4つ必要とする一対又は二対のカメラを用いた撮像装置のサイズが大きくなってしまい、また、車外監視装置(車両前方監視装置)を構成する画像処理装置が高価となってしまう。 However, in the structure of the above prior art, at least four lenses are required because the lens of the short-distance shooting stereo camera and the lens of the long-distance shooting stereo camera are used. In addition, the image sensor is an aggregate of a large number of pixels, and it is necessary to increase the number of pixels in order to improve measurement accuracy. The increase in the number of pixels not only increases the size of the image sensor, but also affects the system scale, such as an increase in the amount of electronic information processing corresponding to the number of pixels and an increase in the processing speed required for it. As described above, an image pickup apparatus that simultaneously picks up images corresponding to two sets of stereo cameras doubles the number of pixels of the image pickup element, and thus tends to be expensive and large-scale as a system. Therefore, the size of the imaging device using a pair or two pairs of cameras that require four lenses becomes large, and the image processing device that constitutes the outside monitoring device (vehicle forward monitoring device) becomes expensive. End up.
 本発明は、上記課題を解決するためのものであり、特に、一対の撮像手段によって、広い視野範囲の画像と狭い視野範囲の画像と、これらの画像を組み合わせたステレオカメラとしての画像とを同時に取得し、画像認識した対象物までの距離が推定できる画像処理装置及び車両前方監視装置を提供するものである。 The present invention is to solve the above-described problems, and in particular, by using a pair of imaging means, an image with a wide visual field range, an image with a narrow visual field range, and an image as a stereo camera that combines these images are simultaneously displayed. The present invention provides an image processing device and a vehicle forward monitoring device that can estimate the distance to an object that has been acquired and image-recognized.
 本発明の画像処理装置は、第1の画像情報を撮像する第1の撮像手段と、前記第1の撮像手段よりも視野範囲が狭く、且つ、前記第1の画像情報と共通領域を有する第2の画像情報を撮像する第2の撮像手段と、前記第1の画像情報及び前記第2の画像情報を基に、対象物を認識する画像認識手段と、を有し、前記画像認識手段は、前記第1の画像情報を補正して第1の画像、及び、前記第2の画像情報を補正して第2の画像、を取得して、前記第1の画像から前記共通領域に対応させた第3の画像を切り出す処理が行われる画像処理部と、前記対象物においてステレオ測距対象物として前記第3の画像に含まれる特徴点を抽出して、前記特徴点に対応する前記第2の画像に含まれる対応点を探索して、前記第3の画像における前記特徴点の画像位置と前記第2の画像における前記対応点の画像位置とを基に、前記ステレオ測距対象物までの距離を推定する処理が行われる距離推定処理部と、を備えていることを特徴とする。 An image processing apparatus according to the present invention includes a first imaging unit that captures first image information, a field of view that is narrower than the first imaging unit, and has a common area with the first image information. Second image pickup means for picking up image information of image 2 and image recognition means for recognizing an object based on the first image information and the second image information, wherein the image recognition means The first image information is corrected to obtain the first image and the second image information is corrected to obtain the second image, and the first image is made to correspond to the common area. An image processing unit that performs a process of cutting out the third image, and a feature point included in the third image as a stereo ranging object in the object, and the second corresponding to the feature point The corresponding points in the third image are searched for corresponding points included in the image of A distance estimation processing unit that performs a process of estimating a distance to the stereo distance measurement object based on the image position and the image position of the corresponding point in the second image. To do.
 画像処理装置は、広い視野範囲の第1の画像と、第1の画像と共通領域を有する第2の画像と、を取得する。これにより、この第2の画像と、第1の画像のうち第2の画像との共通領域に対応させて切り出された第3の画像と、のステレオ画像が取得できる。さらに、第2の画像及び第3の画像に含まれる特徴点の抽出によってステレオ測距対象物として対象物を認識でき、第3の画像における特徴点の画像位置と第2の画像における対応点の画像位置とを基に、画像位置のずれ量を計測できる。画像位置のずれ量により、画像処理装置の撮像位置から対象物までの距離を推定できる。よって、それぞれ1つのレンズを備えた一対の撮像手段によって、広い視野範囲の画像と狭い視野範囲の画像とステレオカメラとしての画像とを同時に取得し、画像認識された対象物までの距離が推定できる。したがって、2組のステレオカメラを用いることなく同等の画像処理が可能な画像処理装置とすることができる。 The image processing apparatus acquires a first image having a wide visual field range and a second image having a common area with the first image. Thereby, the stereo image of this 2nd image and the 3rd image cut out corresponding to the common area | region with the 2nd image among 1st images can be acquired. Furthermore, by extracting feature points included in the second image and the third image, the object can be recognized as a stereo distance measurement object, and the image positions of the feature points in the third image and the corresponding points in the second image can be recognized. The shift amount of the image position can be measured based on the image position. The distance from the imaging position of the image processing apparatus to the object can be estimated from the amount of image position deviation. Therefore, it is possible to simultaneously acquire an image with a wide visual field range, an image with a narrow visual field range, and an image as a stereo camera by using a pair of imaging units each having one lens, and estimate the distance to the recognized object. . Therefore, an image processing apparatus capable of performing equivalent image processing without using two sets of stereo cameras can be provided.
 さらに、前記画像処理部は、あらかじめ座標変換表が記憶されている座標変換表記憶部を有し、前記画像処理部において、前記第1の画像情報に対して前記座標変換表を用いた歪み除去処理が行われて、前記第1の画像を取得することを特徴とする。 Furthermore, the image processing unit includes a coordinate conversion table storage unit in which a coordinate conversion table is stored in advance, and the image processing unit removes distortion using the coordinate conversion table for the first image information. Processing is performed to acquire the first image.
 第1の撮像手段は第2の撮像手段より広い視野範囲を有するので、撮像された画像情報は広角レンズ特有の中央が大きく写り、周辺が歪んでいる画像である。この歪みをもったままであると、第3の画像を第2の画像と比較することが複雑になる。このため、撮像された画像情報に対して歪み除去処理をおこなって、歪みの無い状態の第1の画像に変換する。この歪み除去処理をあらかじめ記憶された座標変換表を用いて行うので、数式による演算処理が不要で、画像データの画素数が多くても高速処理が可能である。高速処理が可能であるため、画像認識の処理速度を低下させることがない。 Since the first image pickup means has a wider field of view range than the second image pickup means, the picked-up image information is an image in which the center peculiar to the wide-angle lens is large and the periphery is distorted. If this distortion remains, it becomes complicated to compare the third image with the second image. For this reason, distortion removal processing is performed on the captured image information to convert the image information into a first image without distortion. Since this distortion removal processing is performed using a pre-stored coordinate conversion table, arithmetic processing using mathematical formulas is unnecessary, and high-speed processing is possible even when the number of pixels of the image data is large. Since high-speed processing is possible, the processing speed of image recognition is not reduced.
 さらに、前記画像処理部において、前記第1の画像に含まれる色特徴を検知して、前記色特徴に関係付けされた色特徴対象物として前記対象物を画像認識する処理が行われることが好ましい。 Furthermore, it is preferable that the image processing unit detect a color feature included in the first image and perform a process of recognizing the object as a color feature object related to the color feature. .
 第1の画像を可視光のカラー画像で取得すれば、画像処理部において、第1の画像に含まれる前記対象物の色特徴を検知することができる。こうすれば、第1の画像によって色特徴が検知された対象物を素早く認識することができる。また、第1の画像によって可視光での色特徴に関係付けされた色特徴対象物がステレオ測距対象物と同一であれば、色特徴対象物までの距離が推定できる。 If the first image is acquired as a visible light color image, the image processor can detect the color characteristics of the object included in the first image. In this way, it is possible to quickly recognize the object whose color feature is detected by the first image. In addition, if the color feature object related to the color feature in visible light by the first image is the same as the stereo distance measurement object, the distance to the color feature object can be estimated.
 前記第2の撮像手段の視野範囲から前記対象物が逸脱する場合、前記第1の撮像手段によって取得された前記第1の画像にて前記対象物を継続追尾する、ことが好適である。 When the object deviates from the visual field range of the second imaging means, it is preferable that the object is continuously tracked with the first image acquired by the first imaging means.
 一旦、対象物として認識された特徴点は、第2の撮像手段の視野範囲で撮像された第2の画像から逸脱した後も、視野範囲の広い第1の画像にて特徴点を認識し続けることができる。よって、抽出された対象物を継続追尾する。これにより、第2の撮像手段の視野範囲から逸脱した後も、第1の画像にて特徴点の画像位置が経時変化する様子を検知できるとともに、距離の推定ができる。 Once the feature point recognized as the target object deviates from the second image captured in the visual field range of the second imaging unit, the feature point continues to be recognized in the first image having a wide visual field range. be able to. Therefore, the extracted object is continuously tracked. Thereby, even after deviating from the visual field range of the second image pickup means, it is possible to detect a change in the image position of the feature point with time in the first image and to estimate the distance.
 また、本発明の画像処理装置は、前記第1の撮像手段及び前記第2の撮像手段が車両前方に搭載され、前記第1の画像が車両前方における第1の遠距離画像を含む近距離画像であって、前記第2の画像が車両前方における第2の遠距離画像であって、前記第2の画像に含まれる前記ステレオ測距対象物の情報を前記第1の画像上で関係付けすることを特徴とする。 In the image processing apparatus of the present invention, the first imaging unit and the second imaging unit are mounted in front of the vehicle, and the first image includes a first long-distance image in front of the vehicle. The second image is a second long-distance image in front of the vehicle, and the information on the stereo ranging object included in the second image is related on the first image. It is characterized by that.
 車両に搭載され、車両前方を撮像する画像処理装置であり、第1の画像が車両前方における近距離画像で広い視野範囲に対応しているので、車両前方の近距離に位置する信号や標識を視野内に捉えて、信号や標識を検知することができる。第1の撮像素子は広角レンズで焦点深度が相対的に深いので、第1の画像には遠方の対象物も撮像されており、第3の画像を切り出すことができる。第2の画像及び第3の画像に含まれるステレオ測距対象物の情報を第1の画像上で関係付けすれば、車両前方の遠距離に位置する信号や標識を車両前方の近距離に近づいても認識し続けることができる。 It is an image processing device that is mounted on a vehicle and images the front of the vehicle. Since the first image is a short-distance image in front of the vehicle and corresponds to a wide field of view, signals and signs positioned at a short distance in front of the vehicle are displayed. Signals and signs can be detected by capturing within the field of view. Since the first imaging element is a wide-angle lens and has a relatively deep focal depth, a distant object is also imaged in the first image, and the third image can be cut out. If the information on the stereo ranging object included in the second image and the third image is related on the first image, a signal or a sign located at a long distance in front of the vehicle approaches a short distance in front of the vehicle. But you can continue to recognize.
 さらに、前記第1の撮像手段と前記第2の撮像手段とが同一基板に配置されていることが好ましい。第1の撮像手段と第2の撮像手段とが同一基板に配置されているので、使用場所に取り付ける前に光学的な調整を行っておくことが可能になる。したがって、取り付けが容易であるとともに、左右のカメラが別体の配置に比べて、取り付け後の光学的な校正が不要である。 Furthermore, it is preferable that the first imaging unit and the second imaging unit are disposed on the same substrate. Since the first image pickup means and the second image pickup means are arranged on the same substrate, it is possible to perform optical adjustment before attaching to the place of use. Therefore, attachment is easy, and optical calibration after attachment is unnecessary compared with the arrangement of the left and right cameras separately.
 前記第2の撮像手段が赤外光を集光可能であり、前記第1の撮像手段が近赤外光を集光可能であり、前記第2の画像と前記第3の画像とが、赤外光で撮像された画像を含んでいることが好ましい。こうすれば、可視光の光量が少ない夜間やトンネル内であっても、赤外光による画像で補うことができ、いわゆる暗視能力が向上する。 The second imaging means can collect infrared light, the first imaging means can collect near-infrared light, and the second image and the third image are red. It is preferable that the image captured with external light is included. In this way, even at night or in a tunnel where the amount of visible light is small, it can be supplemented with an image by infrared light, and so-called night vision ability is improved.
 さらに、本発明の車両前方監視装置は、上記の画像処理装置を備えた車両前方監視装置であり、画像処理装置によって推定された対象物までの距離をもって、乗員に前方情報を報知するという特徴を有する。 Furthermore, the vehicle forward monitoring device of the present invention is a vehicle forward monitoring device including the above-described image processing device, and is characterized by notifying an occupant of forward information with a distance to an object estimated by the image processing device. Have.
 画像処理装置は、広い視野範囲の第1の画像と、第1の画像と共通領域を有する第2の画像と、を取得する。これにより、この第2の画像と、第1の画像のうち第2の画像との共通領域に対応させて切り出された第3の画像と、のステレオ画像が取得できる。さらに、第2の画像及び第3の画像に含まれる特徴点の抽出によってステレオ測距対象物として対象物を認識でき、該ステレオ測距対象物までの距離を推定できる。こうすれば、画像処理装置を備えた車両前方監視装置は、車両前方の遠距離に位置する対象物までの距離を推定して、衝突防止の警告やクルーズコントロールに利用することができる。また、視野範囲の広い画像によって、車両前方の近距離に位置する信号や標識を視野内に捉えることができるので、信号の自動認識や標識の自動認識が可能となる。さらに、視野範囲の広い近距離画像では、車線検知が可能であり、蛇行検知、警告、制御も可能である。よって、それぞれ1つのレンズを備えた一対の撮像手段によって、広い視野範囲の画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定でき、さらに、広い視野範囲の画像による警告、制御が可能である。したがって、2組のステレオカメラを用いることなく同等の画像処理が可能な車両前方監視装置とすることができる。 The image processing apparatus acquires a first image having a wide visual field range and a second image having a common area with the first image. Thereby, the stereo image of this 2nd image and the 3rd image cut out corresponding to the common area | region with the 2nd image among 1st images can be acquired. Furthermore, by extracting feature points included in the second image and the third image, the object can be recognized as a stereo distance measurement object, and the distance to the stereo distance measurement object can be estimated. In this way, the vehicle forward monitoring device provided with the image processing device can estimate the distance to an object located at a long distance ahead of the vehicle and can be used for collision prevention warning and cruise control. In addition, since a signal or a sign located at a short distance in front of the vehicle can be captured in the field of view by an image with a wide visual field range, automatic signal recognition and automatic sign recognition are possible. Furthermore, lane detection is possible for short-distance images with a wide visual field range, and meandering detection, warning, and control are also possible. Therefore, it is possible to simultaneously acquire an image of a wide visual field range and an image as a stereo camera by a pair of imaging means each having one lens, and estimate the distance to the stereo distance measurement object recognized as an image, Warning and control with a wide field of view image is possible. Therefore, it is possible to provide a vehicle forward monitoring apparatus that can perform equivalent image processing without using two sets of stereo cameras.
 本発明によれば、画像処理装置は、広い視野範囲の第1の画像と、第1の画像と共通領域を有する第2の画像と、を取得する。これにより、この第2の画像と、第1の画像のうち第2の画像との共通領域に対応させて切り出された第3の画像と、のステレオ画像が取得できる。さらに、第2の画像及び第3の画像に含まれる特徴点の抽出によってステレオ測距対象物として対象物を認識でき、該ステレオ測距対象物までの距離を推定できる。こうすれば、それぞれ1つのレンズを備えた一対の撮像手段によって、2組のステレオカメラを用いることなく同等の画像処理が可能な画像処理装置とすることができる。 According to the present invention, the image processing apparatus acquires a first image having a wide visual field range and a second image having a common area with the first image. Thereby, the stereo image of this 2nd image and the 3rd image cut out corresponding to the common area | region with the 2nd image among 1st images can be acquired. Furthermore, by extracting feature points included in the second image and the third image, the object can be recognized as a stereo distance measurement object, and the distance to the stereo distance measurement object can be estimated. If it carries out like this, it can be set as the image processing apparatus which can perform an equivalent image process by using a pair of imaging means each provided with one lens, without using two sets of stereo cameras.
 したがって、一対の撮像手段によって、広い視野範囲の画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定できる画像処理装置及び車両前方監視装置を提供することができる。 Therefore, an image processing apparatus and a vehicle forward monitoring apparatus that can simultaneously acquire an image with a wide field of view and an image as a stereo camera by using a pair of imaging means and estimate the distance to the recognized stereo distance measurement object are provided. can do.
本発明の第1実施形態における画像処理装置を示すブロック図である。1 is a block diagram illustrating an image processing apparatus according to a first embodiment of the present invention. 第1実施形態の画像処理装置が搭載された車両の模式正面図である。It is a model front view of the vehicle by which the image processing apparatus of 1st Embodiment is mounted. 第1実施形態の画像処理装置が搭載された車両を上から見た俯瞰図である。It is the bird's-eye view which looked at the vehicle carrying the image processing device of a 1st embodiment from the top. 第1の画像情報の画像補正を示す説明図であり、図4(a)は画像情報を補正する前の画像イメージであり、図4(b)は補正後の画像イメージである。FIGS. 4A and 4B are explanatory diagrams showing image correction of the first image information. FIG. 4A is an image image before the image information is corrected, and FIG. 4B is an image image after the correction. 第1実施形態における画像処理手順について説明するフローチャートである。It is a flowchart explaining the image processing procedure in 1st Embodiment. 第1の撮像手段で取得された第1の画像及び第2の撮像手段で取得された第2の画像を示す説明図であり、(a)は第1の画像及び第3の画像を示す説明図、(b)は第2の画像を示す説明図である。It is explanatory drawing which shows the 1st image acquired by the 1st imaging means, and the 2nd image acquired by the 2nd imaging means, (a) is description explaining a 1st image and a 3rd image. FIG. 4B is an explanatory diagram showing the second image. 第1の撮像手段で取得された第1の画像及び第2の撮像手段で取得された第2の画像を示す説明図であり、(a)は第1の画像を示す説明図、(b)は第2の画像を示す説明図である。It is explanatory drawing which shows the 1st image acquired by the 1st imaging means, and the 2nd image acquired by the 2nd imaging means, (a) is explanatory drawing which shows a 1st image, (b) FIG. 6 is an explanatory diagram showing a second image. 可視光フィルタと赤外光フィルタの分光特性の説明図である。It is explanatory drawing of the spectral characteristic of a visible light filter and an infrared-light filter. 第2実施形態の画像処理装置を備えた車両前方監視装置のブロック図である。It is a block diagram of the vehicle front monitoring apparatus provided with the image processing apparatus of 2nd Embodiment. 従来の車外監視装置を備える車両の正面図である。It is a front view of a vehicle provided with the conventional exterior monitoring apparatus.
 [第1実施形態]
 以下に第1実施形態における画像処理装置1について説明する。
[First Embodiment]
The image processing apparatus 1 in the first embodiment will be described below.
 図1は、第1実施形態における画像処理装置1を示すブロック図である。画像処理装置1は、カメラユニット30と画像認識手段40と制御手段50とを備え、車両前方を撮像するように車両に搭載される。制御手段50は、カメラユニット30と画像認識手段(画像認識ユニット)40とに電源を供給するとともに、制御信号を出力して、それぞれの状態を制御している。 FIG. 1 is a block diagram showing an image processing apparatus 1 in the first embodiment. The image processing apparatus 1 includes a camera unit 30, an image recognition unit 40, and a control unit 50, and is mounted on the vehicle so as to capture the front of the vehicle. The control unit 50 supplies power to the camera unit 30 and the image recognition unit (image recognition unit) 40 and outputs a control signal to control each state.
 カメラユニット30は、広角レンズ11と第1の撮像素子12とを有して、第1の画像情報を得る第1の撮像手段10、望遠レンズ21と第2の撮像素子22とを有して、第2の画像情報を得る第2の撮像手段20、及び、第1の撮像手段10と第2の撮像手段20とに接続された画像出力部31、を備えている。画像出力部31は、第1の画像情報及び第2の画像情報を所定の時間間隔で繰り返し取得するとともに画像認識手段40に出力する電子回路である。 The camera unit 30 includes a wide-angle lens 11 and a first image sensor 12, and includes a first image capturing unit 10 that obtains first image information, a telephoto lens 21, and a second image sensor 22. The second image pickup means 20 for obtaining the second image information, and the image output section 31 connected to the first image pickup means 10 and the second image pickup means 20 are provided. The image output unit 31 is an electronic circuit that repeatedly acquires the first image information and the second image information at predetermined time intervals and outputs them to the image recognition means 40.
 画像認識手段(画像認識ユニット)40は、第1の画像情報及び第2の画像情報を基に対象物を認識するため、画像入力部41、画像処理部42、距離推定処理部43、及び、表示用画像出力部44、を有している。画像入力部41には、画像出力部31から送信された画像情報が入力され、画像処理部42では、取得した画像情報を補正して第1の画像及び第2の画像を取得し、第1の画像から第3の画像を切り出す処理を行う。また、画像処理部42は、距離推定処理部43に送るステレオ画像データと表示用画像出力部44に送る表示用画像データとを出力する。 An image recognition means (image recognition unit) 40 recognizes an object based on the first image information and the second image information, and therefore, an image input unit 41, an image processing unit 42, a distance estimation processing unit 43, and A display image output unit 44. The image information transmitted from the image output unit 31 is input to the image input unit 41, and the image processing unit 42 corrects the acquired image information to acquire the first image and the second image, The third image is cut out from the first image. The image processing unit 42 outputs stereo image data to be sent to the distance estimation processing unit 43 and display image data to be sent to the display image output unit 44.
 距離推定処理部43では、画像処理部42で補正された第1の画像から切り出された第3の画像と、画像処理部42で補正された第2の画像と、を基に、共通に含まれるステレオ測距対象物を認識して、ステレオ測距対象物までの距離を推定する処理が行われる。 The distance estimation processing unit 43 includes the third image cut out from the first image corrected by the image processing unit 42 and the second image corrected by the image processing unit 42 in common. A process for recognizing the stereo distance measurement object and estimating the distance to the stereo distance measurement object is performed.
 表示用画像出力部44では、ユーザが視認しやすいように調整して表示用画像を出力する。また、距離推定処理部43で認識されたステレオ測距対象物を強調し、推定された距離を表示する処理を行う。 The display image output unit 44 adjusts the display image output unit 44 so as to be easily viewed by the user and outputs a display image. Moreover, the distance estimation process part 43 emphasizes the stereo ranging object and performs the process which displays the estimated distance.
 図2は、本実施形態の画像処理装置1が搭載された車両の模式正面図である。車両の前方から見て、フロントガラス越しにカメラユニット30が装着されていることを視認できる。このカメラユニット30は広角レンズ11及び望遠レンズ21からなり、広角レンズ11と望遠レンズ21とは車両の同一高さ、且つ、左右方向に位置するとともに、車両前方の方向にレンズの光軸が向いている。カメラユニット30は、光学的な調整が容易にできるように、1枚のカメラユニット基板(図示しない)に、画像出力部31とともに、第1の撮像手段10と第2の撮像手段20とが組み込まれている。また、カメラユニット30とは分離されて、画像認識手段40が車両内部に配置されている。 FIG. 2 is a schematic front view of a vehicle equipped with the image processing apparatus 1 of the present embodiment. When viewed from the front of the vehicle, it can be visually confirmed that the camera unit 30 is mounted over the windshield. The camera unit 30 includes a wide-angle lens 11 and a telephoto lens 21. The wide-angle lens 11 and the telephoto lens 21 are positioned at the same height and in the left-right direction of the vehicle, and the optical axis of the lens is directed in the front direction of the vehicle. ing. The camera unit 30 includes the first imaging unit 10 and the second imaging unit 20 together with the image output unit 31 on one camera unit substrate (not shown) so that optical adjustment can be easily performed. It is. Further, the image recognition means 40 is disposed inside the vehicle, separated from the camera unit 30.
 本実施形態の画像処理装置1は車両に搭載されているので、表示用画像出力部44から出力される表示用画像は、車両の運転席前方側に配置された表示手段60により視認される。表示手段60は、例えば液晶表示装置であり、カーナビゲーション装置やオーディオ装置の表示画面を利用することができる。また、運転用のステアリング近傍や運転席前方のフロントガラスに表示手段60を専用に設けてもよい。なお、使用する表示手段60の表示特性に合わせて、表示用画像出力部44でダイナミックレンジや階調を補正しておくことが好ましい。 Since the image processing apparatus 1 of this embodiment is mounted on a vehicle, the display image output from the display image output unit 44 is visually recognized by the display means 60 disposed on the front side of the driver's seat of the vehicle. The display means 60 is, for example, a liquid crystal display device, and a display screen of a car navigation device or an audio device can be used. Further, the display means 60 may be provided exclusively in the vicinity of the driving steering wheel or on the windshield in front of the driver's seat. It is preferable to correct the dynamic range and gradation in the display image output unit 44 in accordance with the display characteristics of the display means 60 to be used.
 次に、本実施形態の画像処理装置1の撮像手段について説明する。 Next, the imaging means of the image processing apparatus 1 of this embodiment will be described.
 本実施形態において、第1の撮像手段10は、広角レンズ11と第1の撮像素子12とを有し、一方、第2の撮像手段20は、望遠レンズ21と第2の撮像素子22とを有する。 In the present embodiment, the first imaging unit 10 includes a wide-angle lens 11 and a first imaging element 12, while the second imaging unit 20 includes a telephoto lens 21 and a second imaging element 22. Have.
 図3は、本実施形態の画像処理装置1が搭載された車両を上から見た俯瞰図である。模式的に、第1の撮像手段10の水平方向の画角(水平画角A1)及び第2の撮像手段20の水平方向の画角(水平画角A2)を表わしている。 FIG. 3 is an overhead view of a vehicle on which the image processing apparatus 1 of the present embodiment is mounted as viewed from above. Schematically, the horizontal field angle (horizontal field angle A1) of the first imaging unit 10 and the horizontal field angle (horizontal field angle A2) of the second imaging unit 20 are represented.
 第1の撮像手段10に用いた第1の撮像素子12は、画素数が多く、カラー撮影用の可視光フィルタを備えている。第1の撮像素子12には、ビデオカメラに搭載されている固体撮像素子を使用することができる。例えば、水平1920×垂直1080のカラー画像を30枚/秒で撮像可能な固体撮像素子を使用する。水平画角A1として40度の視野範囲を撮像できるように広角レンズ11が選択された。 The first image pickup device 12 used in the first image pickup means 10 has a large number of pixels and includes a visible light filter for color photography. As the first image pickup device 12, a solid-state image pickup device mounted on a video camera can be used. For example, a solid-state imaging device capable of capturing a horizontal 1920 × vertical 1080 color image at 30 frames / second is used. The wide-angle lens 11 was selected so that a visual field range of 40 degrees could be imaged as the horizontal field angle A1.
 一方、第2の撮像手段20に用いた第2の撮像素子22は、標準的なVGAと呼ばれる画素数で、且つ、可視光フィルタを備えていない。例えば、水平640×垂直480の白黒画像を30枚/秒で撮像可能な固体撮像素子を使用する。水平画角A2として20度の視野範囲を撮像できるように望遠レンズ21が選択された。図3に示すように、第2の撮像手段20の視野範囲は、第1の撮像手段10の視野範囲内にある。 On the other hand, the second imaging element 22 used in the second imaging means 20 has a standard number of pixels called VGA and does not include a visible light filter. For example, a solid-state imaging device that can capture a black and white image of horizontal 640 × vertical 480 at 30 frames / second is used. The telephoto lens 21 was selected so that a visual field range of 20 degrees could be imaged as the horizontal field angle A2. As shown in FIG. 3, the visual field range of the second imaging unit 20 is within the visual field range of the first imaging unit 10.
 <画像処理手順>
 次に、本実施形態における画像処理手順について説明する。画像処理装置1において、画像認識手段(画像認識ユニット)40は、第1の撮像手段10と第2の撮像手段20との相対的な取り付け姿勢に影響されず、カメラ実姿勢に含まれる取り付け誤差の影響を除去する平行化処理(Rectification)を行う。このとき、歪み除去処理も同時に行う。
<Image processing procedure>
Next, an image processing procedure in the present embodiment will be described. In the image processing apparatus 1, the image recognition unit (image recognition unit) 40 is not affected by the relative mounting posture between the first imaging unit 10 and the second imaging unit 20, and is included in the actual camera posture. A parallelization process (Rectification) is performed to remove the influence of the above. At this time, distortion removal processing is also performed at the same time.
 一般的に、ステレオカメラを構成する左右の撮像手段の理想配置状態は、左右の撮像手段が完全に同一な平行姿勢で固定された状態である。そのため、ステレオカメラを用いた距離算出処理は、平行姿勢において撮影された左右の画像ペアを対象としている。 Generally, the ideal arrangement state of the left and right image pickup means constituting the stereo camera is a state in which the left and right image pickup means are completely fixed in the same parallel posture. For this reason, the distance calculation process using a stereo camera targets a pair of left and right images taken in a parallel posture.
 ステレオカメラの理想的な相対取り付け姿勢(平行姿勢)とは,カメラ座標系X軸(カメラ右方向)が基線と平行であり、且つ、カメラの光軸(カメラ座標系Z軸)が平行な姿勢のことである。ステレオカメラにおける基線とは、左右のレンズ中心を結ぶ直線である。画像情報の平行化処理は、撮影画像情報から、撮像手段が理想的な平行姿勢であったときに撮影されたであろう画像へと変換を行うことで達成される。ここで、カメラ座標系とは、カメラが持つ座標系であり、画像中心を原点として,右方向がX軸のプラス方向、下方向がY軸のプラス方向、カメラの正面向きがZ軸のプラス方向となるものを表す。 The ideal relative mounting orientation (parallel orientation) of a stereo camera is an orientation in which the camera coordinate system X axis (camera right direction) is parallel to the baseline and the camera optical axis (camera coordinate system Z axis) is parallel. That is. The base line in the stereo camera is a straight line connecting the left and right lens centers. The parallelization processing of the image information is achieved by converting the captured image information into an image that would have been captured when the imaging unit was in an ideal parallel posture. Here, the camera coordinate system is a coordinate system possessed by the camera, with the center of the image as the origin, the right direction is the positive direction of the X axis, the downward direction is the positive direction of the Y axis, and the front direction of the camera is the positive direction of the Z axis. Represents a direction.
 画像処理装置1においては、カメラユニット30に第1の撮像手段10と第2の撮像手段20とが組み込まれて、取り付けの位置や傾きに対する機構的な調整が行われて固定される。この後、白と黒の方形が交互に配列されたチェッカーボードを撮像して取得された画像情報によって、第1の撮像手段10に対する第2の撮像手段20の光学的な相対位置データを取得する。すなわち、光軸(カメラ座標系Z軸)方向の相対位置、両レンズの光軸(カメラ座標系Z軸)に直交する平面(カメラ座標系X軸及びY軸の平面)上での上下左右位置、及び第1の撮像手段10に対する第2の撮像手段20のロール・ピッチ・ヨーが把握される。 In the image processing apparatus 1, the first imaging unit 10 and the second imaging unit 20 are incorporated in the camera unit 30, and are mechanically adjusted and fixed with respect to the mounting position and inclination. Thereafter, optical relative position data of the second imaging unit 20 with respect to the first imaging unit 10 is acquired by image information acquired by imaging a checkerboard in which white and black squares are alternately arranged. . That is, the relative position in the direction of the optical axis (camera coordinate system Z axis), the vertical and horizontal positions on a plane (plane of the camera coordinate system X axis and Y axis) orthogonal to the optical axis (camera coordinate system Z axis) of both lenses , And the roll, pitch, and yaw of the second imaging means 20 relative to the first imaging means 10 are grasped.
 こうして得られた相対位置データは、画像処理部42にあらかじめ記録され、撮影画像情報から、撮像手段が理想的な平行姿勢であったときに撮影されたであろう画像へと校正する変換を行う平行化処理に適用される。 The relative position data obtained in this way is recorded in advance in the image processing unit 42, and conversion is performed to calibrate the captured image information to an image that would have been captured when the imaging means was in an ideal parallel posture. Applies to parallelization processing.
 このとき、少なくとも、第1の撮像手段10で撮像された画像情報の歪み除去処理も同時に行う。すなわち、撮像手段がレンズに固有の像高特性を有しているため、画像データ上のXY座標と実空間での位置のXY座標とが一致するように変換を行う。上記のチェッカーボードのXY座標データが分かっているので、チェッカーボードを撮像した画像情報から歪み除去処理用のデータを取得することができる。第1の撮像手段10は第2の撮像手段20より広い視野範囲を有するので、撮像された画像情報は広角レンズ11に特有の中央が大きく写り、周辺が歪んでいる画像である。この歪みをもったままであると、第3の画像を第2の画像と比較することが複雑になる。このため、撮像された画像情報に対して歪み除去処理をおこなって、歪みの無い状態の第1の画像に変換する。図4は、チェッカーボードを撮像した第1の画像の画像補正を示す説明図である。図4(a)は画像を補正する前の画像イメージであり、図4(b)は補正後の画像イメージである。第2の撮像手段20で撮像された画像情報の歪み除去処理も同様に行うことが可能である。こうすれば、第1の撮像手段10及び第2の撮像手段20がそれぞれ固有のレンズ特性を有し、理想的な平行姿勢にない状態であっても、理想的な画像に補正することができる。 At this time, at least the distortion removal processing of the image information captured by the first imaging unit 10 is performed at the same time. That is, since the imaging means has an image height characteristic unique to the lens, the conversion is performed so that the XY coordinates on the image data coincide with the XY coordinates of the position in the real space. Since the XY coordinate data of the checkerboard is known, distortion removal processing data can be acquired from image information obtained by imaging the checkerboard. Since the first imaging unit 10 has a wider field of view than the second imaging unit 20, the captured image information is an image in which the center peculiar to the wide-angle lens 11 is greatly reflected and the periphery is distorted. If this distortion remains, it becomes complicated to compare the third image with the second image. For this reason, distortion removal processing is performed on the captured image information to convert the image information into a first image without distortion. FIG. 4 is an explanatory diagram illustrating image correction of the first image obtained by imaging the checkerboard. FIG. 4A shows an image before the image is corrected, and FIG. 4B shows an image after the correction. The distortion removal process for the image information captured by the second imaging unit 20 can be performed in the same manner. In this way, even if the first imaging unit 10 and the second imaging unit 20 have unique lens characteristics and are not in an ideal parallel posture, it can be corrected to an ideal image. .
 本実施形態においては、これらの画像補正を、LUT(Look Up Table)と呼ばれる変換手法によって行う。これは、撮像した画像情報における各画素の座標を、歪みの無い場合に撮像されるべき座標位置に配置し直すもので、あらかじめ座標変換表を作成しておく手法である。本実施形態では、チェッカーボードを撮像した画像情報から座標変換表を作成しておき、画像処理部42の座標変換表記憶部45に、あらかじめ座標変換表が記憶されている。画像処理部42において、座標変換表記憶部45に記憶されている第1の画像情報用の座標変換表を用いて、第1の画像情報に対して平行化処理及び歪み除去処理が行われ、第1の画像を取得する。同様に、第2の画像情報に対して第2の画像情報用の座標変換表を用いて、平行化処理及び歪み除去処理が行われ、第2の画像を取得する。なお、一方の画像情報を基準にすれば、平行化処理については他方の画像情報のみ行えばよい。一般的に、これらの画像補正は、画像情報の各画素に対して計算式を用いた計算により行うことができる。しかしながら、画素数が増加すると、計算量が膨大になるため、処理速度が低下する問題を有していた。本実施形態では、この歪み除去処理をあらかじめ記憶された座標変換表を用いて行うので、数式による演算処理が不要で、画像データの画素数が多くても高速処理が可能である。高速処理が可能であるため、画像認識の処理速度を低下させることがない。 In the present embodiment, these image corrections are performed by a conversion method called LUT (Look Up Table). In this method, the coordinates of each pixel in the captured image information are rearranged at the coordinate position to be imaged when there is no distortion, and this is a method of creating a coordinate conversion table in advance. In the present embodiment, a coordinate conversion table is created from image information obtained by imaging the checkerboard, and the coordinate conversion table is stored in advance in the coordinate conversion table storage unit 45 of the image processing unit 42. In the image processing unit 42, using the coordinate conversion table for the first image information stored in the coordinate conversion table storage unit 45, parallelization processing and distortion removal processing are performed on the first image information. A first image is acquired. Similarly, the second image information is subjected to a parallelization process and a distortion removal process using a second image information coordinate conversion table to obtain a second image. Note that if one image information is used as a reference, only the other image information needs to be performed for the parallelization processing. Generally, these image corrections can be performed by calculation using a calculation formula for each pixel of image information. However, when the number of pixels increases, the amount of calculation becomes enormous, which causes a problem that the processing speed decreases. In the present embodiment, since this distortion removal processing is performed using a coordinate conversion table stored in advance, arithmetic processing using mathematical formulas is unnecessary, and high-speed processing is possible even if the number of pixels of the image data is large. Since high-speed processing is possible, the processing speed of image recognition is not reduced.
 図5は、第1実施形態における画像処理手順について説明するフローチャートである。画像認識手段40における画像処理手順として、ステップST1では、第1の撮像手段10と第2の撮像手段20とが撮像した画像情報が、画像処理部42に入力され、画像情報が取得される。ステップST2では、上述した画像補正を行い、第1の画像情報を補正して第1の画像、及び、第2の画像情報を補正して第2の画像が取得される。 FIG. 5 is a flowchart for explaining the image processing procedure in the first embodiment. As an image processing procedure in the image recognition unit 40, in step ST1, image information captured by the first imaging unit 10 and the second imaging unit 20 is input to the image processing unit 42, and image information is acquired. In step ST2, the above-described image correction is performed, the first image information is corrected to correct the first image, and the second image information is corrected to acquire the second image.
 さらに、ステップST3では、取得された第1の画像から、第2の画像との共通領域に対応させた第3の画像を切り出し、第3の画像が取得される。第1の撮像手段10で撮像された第1の画像は、水平画角40度なので視野範囲が広く、第2の撮像手段20で撮像された第2の画像との共通領域を含んでいる。裏返して言えば、第2の撮像手段20で撮像された第2の画像は、水平画角20度なので、第1の画像に比べて視野範囲が狭く、且つ、第1の画像と共通領域を有する。そのため、第1の画像から、第2の画像との共通領域に対応させた第3の画像を切り出すことができる。 Further, in step ST3, a third image corresponding to the common area with the second image is cut out from the acquired first image, and the third image is acquired. The first image picked up by the first image pickup means 10 has a wide field of view since it has a horizontal angle of view of 40 degrees, and includes a common area with the second image picked up by the second image pickup means 20. In other words, since the second image captured by the second imaging unit 20 has a horizontal angle of view of 20 degrees, the visual field range is narrower than that of the first image, and a common area with the first image is formed. Have. Therefore, it is possible to cut out the third image corresponding to the common area with the second image from the first image.
 ステップST2で第1の画像を補正するとともに、ステップST3で第1の画像から第3の画像を切り出す画像処理は、画像処理部42で行われる。このとき、切り出された第3の画像に対して、グレイスケール画像に変換される。 The image processing unit 42 performs image processing for correcting the first image in step ST2 and cutting out the third image from the first image in step ST3. At this time, the cut out third image is converted into a grayscale image.
 次に、距離推定処理部43において、共通領域に対応させた第3の画像に含まれる対象物の特徴点を抽出して、特徴点に関係付けされたステレオ測距対象物を認識し、画像処理装置の撮像位置からステレオ測距対象物までの距離を推定する処理が行われる。ステップST4では、第3の画像に含まれる対象物の特徴点が抽出され、第3の画像に映っている特徴点について、対応する第2の画像が探索される。第3の画像に映っている特徴点に対応する第2の画像の対応点が探索されると、ステップST5で、第3の画像における特徴点の画像位置と第2の画像における対応点の画像位置とを基に、画像位置のずれ量が計測される。第3の画像に含まれる対象物の特徴点と第2の画像に含まれる対応点に関係付けされたステレオ測距対象物に対して、画像位置のずれ量により、三角測量の原理で距離が算出される。この処理は、ステップST6で画像処理が終了されるまで、次のタイミングで撮像された画像情報に対して同様に繰り返される。 Next, the distance estimation processing unit 43 extracts the feature points of the object included in the third image corresponding to the common area, recognizes the stereo distance measurement object related to the feature points, Processing for estimating the distance from the imaging position of the processing device to the stereo distance measurement object is performed. In step ST4, the feature point of the target object included in the third image is extracted, and the corresponding second image is searched for the feature point shown in the third image. When the corresponding point of the second image corresponding to the feature point shown in the third image is searched, in step ST5, the image position of the feature point in the third image and the image of the corresponding point in the second image The shift amount of the image position is measured based on the position. For a stereo ranging object related to the feature point of the object included in the third image and the corresponding point included in the second image, the distance is determined according to the principle of triangulation by the amount of image position deviation. Calculated. This process is repeated in the same manner for the image information captured at the next timing until the image process is completed in step ST6.
 図6は、第1の画像及び第2の画像を示す説明図である。この図6において、車両から信号までの距離は仮に50m程度としている。図6(a)は、第1の撮像手段10で撮像された第1の画像及び第3の画像(F領域の画像)を示す説明図である。図6(b)は、第2の撮像手段20で撮像された第2の画像を示す説明図である。上述した補正処理が行われた後の画像イメージで示している。図6(a)においては、第2の画像との共通領域に対応して、第1の画像からF領域の画像を切り出す画像処理が行われている。車両前方の遠方にある信号は、第2の画像及び第3の画像に共通に含まれている。 FIG. 6 is an explanatory diagram showing a first image and a second image. In FIG. 6, the distance from the vehicle to the signal is assumed to be about 50 m. FIG. 6A is an explanatory diagram showing a first image and a third image (F region image) captured by the first imaging means 10. FIG. 6B is an explanatory diagram showing a second image captured by the second imaging unit 20. An image after the above-described correction processing is shown. In FIG. 6A, image processing for cutting out the image of the F region from the first image is performed corresponding to the common region with the second image. A signal far away in front of the vehicle is commonly included in the second image and the third image.
 図7は、第1の画像及び第2の画像を示す説明図である。この図7において、車両から信号までの距離は仮に15m程度としている。図7(a)は、第1の撮像手段10で撮像された第1の画像を示す説明図である。図7(b)は、第2の撮像手段20で撮像された第2の画像を示す説明図である。図7(a)では、車両前方の信号が第1の画像に含まれていることが分かる。しかし、図7(b)では、信号が第2の画像に含まれていない。つまり、図6にて表わした信号までの距離が50mの場合では、第1の撮像手段10及び第2の撮像手段20の双方で信号の認識ができていたが、信号までの距離が15mまで近づいた図7においては、第1の撮像手段10のみでしか信号の認識を行うことができない。これは第1の撮像手段10の視野範囲が広いためであるが、画像処理装置1は、車両前方に近づいたときの信号等、視野範囲の周辺にある対象物を、第1の画像を用いることにより認識し続けることができる。 FIG. 7 is an explanatory diagram showing a first image and a second image. In FIG. 7, the distance from the vehicle to the signal is assumed to be about 15 m. FIG. 7A is an explanatory diagram illustrating a first image captured by the first imaging unit 10. FIG. 7B is an explanatory diagram illustrating a second image captured by the second imaging unit 20. In Fig.7 (a), it turns out that the signal ahead of a vehicle is contained in the 1st image. However, in FIG. 7B, the signal is not included in the second image. That is, when the distance to the signal shown in FIG. 6 is 50 m, both the first imaging means 10 and the second imaging means 20 can recognize the signal, but the distance to the signal is up to 15 m. In FIG. 7 that is approaching, the signal can be recognized only by the first imaging means 10 alone. This is because the visual field range of the first imaging means 10 is wide, but the image processing apparatus 1 uses the first image for objects around the visual field range, such as a signal when approaching the front of the vehicle. Can continue to recognize.
 また、図6に示す信号のように第3の画像及び第2の画像に共通する対象物として認識され、左右画像における対象物の画像位置の相対的なずれ量が計測され、画像位置のずれ量により、距離が推定される。いったん、対象物として認識された特徴点は、第2の撮像手段20の視野範囲で撮像された第2の画像から逸脱した後も、視野範囲の広い第1の画像にて特徴点を認識し続けることができる。よって、抽出された対象物を継続追尾する。これにより、第2の撮像手段20の視野範囲から逸脱した後も、第1の画像にて特徴点の画像位置が経時変化する様子を基に対象物までの距離を推定できる。したがって、第2の画像及び第3の画像に含まれるステレオ測距対象物の情報を第1の画像上で関係付けすれば、車両前方の遠距離に位置する信号や標識を車両前方の近距離に近づいても認識し続けることができる。 6 is recognized as an object common to the third image and the second image as in the signal shown in FIG. 6, and the relative displacement amount of the image position of the object in the left and right images is measured, and the image position displacement is detected. The distance is estimated by the quantity. Once the feature point recognized as the target object deviates from the second image captured in the visual field range of the second imaging unit 20, the feature point is recognized in the first image having a wide visual field range. You can continue. Therefore, the extracted object is continuously tracked. Thereby, even after deviating from the visual field range of the second imaging means 20, it is possible to estimate the distance to the object based on how the image position of the feature point changes with time in the first image. Therefore, if the information of the stereo ranging object included in the second image and the third image is related on the first image, a signal or a sign located at a long distance in front of the vehicle is displayed at a short distance in front of the vehicle. You can continue to recognize even when approaching.
 さらに、第1の撮像素子12がカラー撮影用の撮像素子なので、第1の画像によって、対象物の色特徴を検知することが可能である。この場合は、画像処理部42において、第1の画像に含まれる色特徴を検知して、色特徴に関係付けされた色特徴対象物として対象物を画像認識する処理が行われる。このため、第1の画像によって可視光での色特徴を抽出した対象物に対して、素早い認識ができる。第3の画像及び第2の画像の共通するステレオ測距対象物として認識された特徴点の色特徴を検知して、対象物を認識させ続けることができる。また、第1の画像によって可視光での色特徴に関係付けされた色特徴対象物に対して、第3の画像及び第2の画像の共通するステレオ測距対象物と同一であれば、該対象物までの距離を推定できる。 Furthermore, since the first image sensor 12 is an image sensor for color photography, it is possible to detect the color characteristics of the object from the first image. In this case, the image processing unit 42 detects a color feature included in the first image, and performs a process of recognizing the object as a color feature object related to the color feature. For this reason, it is possible to quickly recognize an object whose color feature in visible light is extracted from the first image. The color feature of the feature point recognized as the stereo distance measurement object common to the third image and the second image can be detected and the object can be continuously recognized. In addition, if the color feature object related to the color feature in visible light by the first image is the same as the stereo distance measurement object common to the third image and the second image, The distance to the object can be estimated.
 図7(a)で追尾された信号の色特徴を認識していれば、赤信号から青信号に変化したときに、色特徴の変化として認識して、表示用画像に色変化したことを出力したり、合図音を鳴らしたりすることができる。 If the color feature of the signal tracked in FIG. 7A is recognized, when the signal changes from a red signal to a blue signal, it is recognized as a change in the color feature, and the fact that the color has changed is output to the display image. Or sound a signal.
 したがって、車両に搭載されて車両前方を撮像する画像処理装置1に好適である。画像処理装置1では、第1の撮像手段10と第2の撮像手段20とが車両前方を撮像するように搭載される。第1の画像が車両前方における第1の遠距離画像を含む近距離画像であって、第2の画像が車両前方における第2の遠距離画像であって、第2の画像に含まれるステレオ測距対象物の情報を第1の画像上で関係付けすることができる。第1の撮像素子12が広角レンズ11で焦点深度が相対的に深いので、第1の画像には遠方の対象物も撮像可能である。車両前方の近距離に位置する信号や標識を視野内に捉えているので、信号の自動認識や標識の自動認識が可能である。 Therefore, it is suitable for the image processing apparatus 1 that is mounted on a vehicle and images the front of the vehicle. In the image processing apparatus 1, the first imaging unit 10 and the second imaging unit 20 are mounted so as to image the front of the vehicle. The first image is a short-distance image including a first long-distance image in front of the vehicle, and the second image is a second long-distance image in front of the vehicle, and the stereo measurement included in the second image. Distance object information can be correlated on the first image. Since the first imaging element 12 is the wide-angle lens 11 and the depth of focus is relatively deep, a distant object can be imaged in the first image. Since signals and signs located at a short distance in front of the vehicle are captured within the field of view, automatic signal recognition and automatic sign recognition are possible.
 また、1枚のカメラユニット基板に第1の撮像手段10と第2の撮像手段20とが配置されて組み込まれたカメラユニット30を、車両のフロントガラスを通して車両前方を撮像するように配置すれば、車両への取り付けが容易である。さらに、左右のカメラが別体の配置に比べて、第1の撮像手段10と第2の撮像手段20とが同一基板に配置されているので、車両に取り付ける前に光学的な調整を行っておくことが可能になる。したがって、取り付けが容易であるとともに、左右のカメラが別体の配置に比べて、取り付け後の光学的な校正が不要であるという効果を奏する。小型のカメラユニット30では、左右のレンズ間隔(基線長)は65mm程度にされた。一方、より遠距離での距離推定精度を確保したい場合は、横長にして、基線長を300mm程度にすればよい。 Further, if the camera unit 30 in which the first image pickup means 10 and the second image pickup means 20 are arranged and incorporated on one camera unit substrate is arranged so as to image the front of the vehicle through the windshield of the vehicle. Easy to attach to the vehicle. Furthermore, since the first imaging means 10 and the second imaging means 20 are arranged on the same substrate as compared with the arrangement where the left and right cameras are separated, optical adjustment is performed before being attached to the vehicle. It is possible to leave. Therefore, it is easy to mount, and there is an effect that the optical calibration after the mounting is unnecessary as compared with the arrangement of the left and right cameras separately. In the small camera unit 30, the distance between the left and right lenses (base line length) is set to about 65 mm. On the other hand, when it is desired to ensure the distance estimation accuracy at a longer distance, the base line length may be about 300 mm.
 本実施形態では、第1の撮像手段10と第2の撮像手段20とは、それぞれ1つのレンズだけを用いるので、レンズは2つだけである。また、撮像素子の撮像面は、多数の画素の集合体であり、測定精度を向上させるためには、画素の数を増やす必要があるが、4つのレンズに対応する必要はない。撮像素子の画素数の増加は撮像面の大型化だけでなく、画素数に対応する電子情報処理量の増加やそれに必要な処理速度の高速化など、システム規模にも影響する。したがって、一対のステレオカメラに相当する画像を取得するだけの画像処理装置1は、撮像素子の画素数が最小限であり、システムとしても安価である。 In this embodiment, each of the first imaging unit 10 and the second imaging unit 20 uses only one lens, and thus there are only two lenses. Further, the imaging surface of the imaging device is an aggregate of a large number of pixels, and in order to improve measurement accuracy, it is necessary to increase the number of pixels, but it is not necessary to correspond to four lenses. The increase in the number of pixels of the imaging element affects not only the size of the imaging surface but also the system scale, such as an increase in the amount of electronic information processing corresponding to the number of pixels and an increase in the processing speed required for it. Therefore, the image processing apparatus 1 that only acquires an image corresponding to a pair of stereo cameras has a minimum number of pixels of the image sensor and is inexpensive as a system.
 本実施形態では、第1の撮像素子12が可視光フィルタを備えているカラー撮影用の撮像素子であり、第2の撮像素子22が可視光フィルタを備えていない白黒撮影用の撮像素子であるとしたが、近赤外光にも感度を有している撮像素子であることが好ましい。例えば、第2の撮像手段20が近赤外光を集光可能であり、第1の撮像手段10が近赤外光を集光可能である場合は、第2の画像と第3の画像とが、近赤外光で撮像された画像を含んでいる。 In the present embodiment, the first image sensor 12 is a color image sensor having a visible light filter, and the second image sensor 22 is a black and white image sensor having no visible light filter. However, it is preferable that the imaging device has sensitivity to near infrared light. For example, when the second imaging unit 20 can collect near-infrared light and the first imaging unit 10 can collect near-infrared light, the second image and the third image Includes an image captured with near-infrared light.
 第1の撮像素子12では、可視光フィルタに加えて、赤外光フィルタを用意して、可視光フィルタでは遮断される赤外光を撮像する画素を配置しておけばよい。図8は、可視光フィルタと赤外光フィルタの分光特性の説明図である。それぞれ、透過する波長が赤色の領域、緑色の領域、及び青色の領域のRGBフィルタと、波長が700nm以上の近赤外光を透過して、680nm以下の可視光を反射又は吸収するIRフィルタである。こうすれば、可視光の光量が少ない夜間やトンネル内であっても、赤外光で取得された画像で補うことができ、いわゆる暗視能力が向上する。ヘッドライトの発光スペクトルに赤外光が含まれている場合や、赤外光照射用の補助ライトを用いる場合は、暗視能力がさらに向上する効果を奏する。 In the first image sensor 12, in addition to the visible light filter, an infrared light filter may be prepared, and pixels for imaging infrared light blocked by the visible light filter may be arranged. FIG. 8 is an explanatory diagram of spectral characteristics of the visible light filter and the infrared light filter. An RGB filter with a wavelength of red, green, and blue, respectively, and an IR filter that transmits near infrared light with a wavelength of 700 nm or more and reflects or absorbs visible light with a wavelength of 680 nm or less. is there. In this way, even at night or in a tunnel where the amount of visible light is small, it can be supplemented with an image acquired with infrared light, and so-called night vision ability is improved. When infrared light is included in the emission spectrum of the headlight, or when an auxiliary light for irradiating infrared light is used, an effect of further improving the night vision ability is achieved.
 第2の撮像素子22は可視光フィルタを備えていないので、可視光フィルタで遮断されることなく、近赤外光にも感度を有している。なお、視感度との調整用に赤外光をカットする赤外カットフィルタも用いていない。 Since the second image sensor 22 does not include a visible light filter, it is sensitive to near infrared light without being blocked by the visible light filter. In addition, the infrared cut filter which cuts infrared light for adjustment with visibility is not used.
 第2の撮像素子22が遠赤外光を検知する遠赤外撮像素子であってもよい。この場合、可視光での撮像を兼用することが困難であるが、第2の画像として遠赤外光での画像を取得することができるので、夜間に人体を検知する感度が、さらに向上する。 The second image sensor 22 may be a far-infrared image sensor that detects far-infrared light. In this case, although it is difficult to combine imaging with visible light, an image with far-infrared light can be acquired as the second image, so the sensitivity of detecting a human body at night is further improved. .
 なお、ステレオ測距に必要な画像情報に余分な周辺画像データを含まない画像処理であることから、処理速度が速いという副次的効果を奏する。 It should be noted that the image processing necessary for stereo distance measurement does not include extra peripheral image data, and therefore has a secondary effect of high processing speed.
 以上のように、本実施形態の画像処理装置1は、広い視野範囲の第1の画像と、第1の画像と共通領域を有する第2の画像と、を取得する。これにより、この第2の画像と、第1の画像のうち第2の画像との共通領域に対応させて切り出された第3の画像と、のステレオ画像が取得できる。さらに、第2の画像及び第3の画像に含まれる特徴点の抽出によってステレオ測距対象物として対象物を認識でき、第3の画像における特徴点の画像位置と第2の画像における対応点の画像位置とを基に、画像位置のずれ量を計測できる。画像位置のずれ量により、画像処理装置1の撮像位置から該ステレオ測距対象物までの距離を推定できる。 As described above, the image processing apparatus 1 according to the present embodiment acquires a first image having a wide visual field range and a second image having a common area with the first image. Thereby, the stereo image of this 2nd image and the 3rd image cut out corresponding to the common area | region with the 2nd image among 1st images can be acquired. Furthermore, by extracting feature points included in the second image and the third image, the object can be recognized as a stereo distance measurement object, and the image position of the feature point in the third image and the corresponding point in the second image can be recognized. The shift amount of the image position can be measured based on the image position. The distance from the imaging position of the image processing apparatus 1 to the stereo distance measurement object can be estimated from the amount of image position deviation.
 よって、それぞれ1つのレンズを備えた一対の撮像手段によって、広い視野範囲の画像と狭い視野範囲の画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定できる。したがって、2台のステレオカメラを用いることなく同等の画像処理が可能な画像処理装置とすることができる。 Therefore, a distance to a stereo distance measuring object that is obtained by simultaneously acquiring an image of a wide field of view, an image of a narrow field of view, and an image as a stereo camera by a pair of imaging means each having one lens. Can be estimated. Therefore, an image processing apparatus capable of performing equivalent image processing without using two stereo cameras can be provided.
 画像処理装置1は車両に搭載する以外に、防犯用カメラや自走型ロボット等に使用することができる。 The image processing apparatus 1 can be used for a security camera, a self-propelled robot, etc. in addition to being mounted on a vehicle.
 [第2実施形態]
 本発明の第2実施形態における画像処理装置2について説明する。
[Second Embodiment]
An image processing apparatus 2 according to the second embodiment of the present invention will be described.
 図9は、第2実施形態の画像処理装置2を備えた車両前方監視装置100のブロック図である。第1実施形態の画像処理装置1と共通するところは、同じ符号をつけて説明は省略する。 FIG. 9 is a block diagram of the vehicle front monitoring apparatus 100 including the image processing apparatus 2 according to the second embodiment. The parts common to the image processing apparatus 1 of the first embodiment are given the same reference numerals and the description thereof is omitted.
 第2実施形態において、画像処理装置2では、距離推定処理部43から表示用画像出力部44に表示用の情報を渡すことに加えて、推定された対象物までの距離をもって、乗員に前方情報を報知する車両制御用の情報を警告判定部70に渡している。 In the second embodiment, in the image processing apparatus 2, in addition to passing display information from the distance estimation processing unit 43 to the display image output unit 44, the front information is transmitted to the occupant with the estimated distance to the target object. Is sent to the warning determination unit 70.
 警告判定部70では、距離推定処理部43で車両前方の対象物までの距離が推定された距離データと、表示用画像出力部44で認識された対象物の継続追尾データと、をもとに警告を行う判定がなされる。例えば、前方の先行車両や障害物に衝突する前に警告を発する警告手段71に警報を出力したり、危険回避操作手段72に危険回避操作として車両のブレーキを作動させたりする指令を出力したりする。 In the warning determination unit 70, the distance estimation processing unit 43 estimates the distance to the object ahead of the vehicle and the object continuous tracking data recognized by the display image output unit 44. A decision is made to issue a warning. For example, an alarm is output to the warning means 71 that issues a warning before colliding with a preceding vehicle in front or an obstacle, or a command for operating the brake of the vehicle as a risk avoidance operation is output to the risk avoidance operation means 72. To do.
 なお、第1実施形態の画像処理装置1と同様に、表示用画像出力部44から、カーナビゲーション装置等の表示画面を利用した表示手段60に表示データを出力させてもよい。 Note that, similarly to the image processing apparatus 1 of the first embodiment, the display data may be output from the display image output unit 44 to the display means 60 using a display screen such as a car navigation apparatus.
 以下、本実施形態としたことによる効果について説明する。 Hereinafter, the effects of the present embodiment will be described.
 第1の撮像手段10は車両前方における広い視野範囲で第1の画像情報を取得できる。第2の撮像手段20は第1の画像と共通領域を有する第2の画像情報を取得できる。画像処理部42では、取得した画像情報を補正して第1の画像及び第2の画像を取得し、第1の画像から第3の画像を切り出す処理を行う。したがって、画像処理装置2は、広い視野範囲の第1の画像と、第1の画像と共通領域を有する第2の画像と、を取得する。これにより、この第2の画像と、第1の画像のうち第2の画像との共通領域に対応させて切り出された第3の画像と、のステレオ画像が取得できる。さらに、第2の画像及び第3の画像に含まれる特徴点の抽出によってステレオ測距対象物として対象物を認識でき、第3の画像における特徴点の画像位置と第2の画像における対応点の画像位置とを基に、画像位置のずれ量を計測できる。画像位置のずれ量により、画像処理装置2の撮像位置から該ステレオ測距対象物までの距離を推定できる。 The first imaging means 10 can acquire the first image information in a wide visual field range in front of the vehicle. The second imaging unit 20 can acquire second image information having a common area with the first image. The image processing unit 42 corrects the acquired image information to acquire the first image and the second image, and performs a process of cutting out the third image from the first image. Therefore, the image processing apparatus 2 acquires a first image having a wide visual field range and a second image having a common area with the first image. Thereby, the stereo image of this 2nd image and the 3rd image cut out corresponding to the common area | region with the 2nd image among 1st images can be acquired. Furthermore, by extracting feature points included in the second image and the third image, the object can be recognized as a stereo distance measurement object, and the image positions of the feature points in the third image and the corresponding points in the second image can be recognized. The shift amount of the image position can be measured based on the image position. The distance from the imaging position of the image processing device 2 to the stereo distance measurement object can be estimated from the amount of image position deviation.
 画像処理装置2を備えた車両前方監視装置100では、車両前方の遠距離に位置する対象物までの距離を推定して、衝突防止の警告やクルーズコントロールに利用することができる。画像処理装置2で撮像された視野範囲の広い画像によって、車両前方の近距離に位置する信号や標識を視野内に捉えることができるので、信号の自動認識や標識の自動認識が可能となる。信号や標識を認識できるので、警告手段71で音声や警告を発する運転補助に利用することが可能である。また、運転者が赤信号や規制標識を認知していない場合に警告手段71での警告や危険回避操作手段72でのブレーキ操作ができる。さらに、視野範囲の広い近距離画像では、車線検知が可能であり、蛇行検知、警告、制御も可能である。よって、それぞれ1つのレンズを備えた一対の撮像手段によって、広い視野範囲の画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定でき、さらに、広い視野範囲の画像による警告、制御が可能である。 The vehicle forward monitoring device 100 including the image processing device 2 can estimate the distance to an object located at a long distance in front of the vehicle and can be used for collision prevention warning and cruise control. Since a signal or a sign located at a short distance in front of the vehicle can be captured in the field of view by an image having a wide field of view imaged by the image processing device 2, automatic signal recognition and sign recognition are possible. Since the signal and the sign can be recognized, the warning means 71 can be used for driving assistance that issues a voice or warning. Further, when the driver does not recognize the red light or the regulation sign, the warning by the warning means 71 and the brake operation by the danger avoiding operation means 72 can be performed. Furthermore, lane detection is possible for short-distance images with a wide visual field range, and meandering detection, warning, and control are also possible. Therefore, it is possible to simultaneously acquire an image of a wide visual field range and an image as a stereo camera by a pair of imaging means each having one lens, and estimate the distance to the stereo distance measurement object recognized as an image, Warning and control with a wide field of view image is possible.
 さらに、いったん、対象物として認識された特徴点は、第2の撮像手段20の視野範囲で撮像された第2の画像から逸脱した後も、視野範囲の広い第1の画像にて特徴点を認識し続けることができる。よって、抽出された対象物を、表示用画像出力部44に送られた表示用画像データの視野範囲で継続追尾することができる。 Further, once the feature point recognized as the target object deviates from the second image captured in the visual field range of the second imaging unit 20, the feature point is detected in the first image having a wide visual field range. Can continue to recognize. Therefore, the extracted object can be continuously tracked within the visual field range of the display image data sent to the display image output unit 44.
 以上のように、本実施形態の画像処理装置2は、広い視野範囲の第1の画像と、第1の画像と共通領域を有する第2の画像と、を取得する。これにより、この第2の画像と、第1の画像のうち第2の画像との共通領域に対応させて切り出された第3の画像と、のステレオ画像が取得できる。さらに、第2の画像及び第3の画像に含まれる対象物を特徴点の抽出によってステレオ測距対象物として認識でき、該ステレオ測距対象物までの距離を推定できる。よって、それぞれ1つのレンズを備えた一対の撮像手段によって、広い視野範囲の画像とステレオカメラとしての画像とを同時に取得し、推定されたステレオ測距対象物までの距離をもって、乗員に前方情報を報知する車両前方監視装置とすることができる。
したがって、2台のステレオカメラを用いることなく同等の画像処理が可能な車両前方監視装置とすることができる。
As described above, the image processing apparatus 2 according to the present embodiment acquires the first image having a wide visual field range and the second image having the common area with the first image. Thereby, the stereo image of this 2nd image and the 3rd image cut out corresponding to the common area | region with the 2nd image among 1st images can be acquired. Furthermore, the objects included in the second image and the third image can be recognized as a stereo distance measurement object by extracting feature points, and the distance to the stereo distance measurement object can be estimated. Therefore, a pair of imaging means each having one lens simultaneously acquire an image with a wide field of view and an image as a stereo camera, and the front information is given to the occupant with the estimated distance to the stereo distance measurement object. It can be set as the vehicle front monitoring apparatus to alert | report.
Therefore, it is possible to provide a vehicle forward monitoring apparatus that can perform equivalent image processing without using two stereo cameras.
 したがって、一対の撮像手段によって、広い視野範囲の画像と狭い視野範囲の画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定できる画像処理装置及び車両前方監視装置を提供することができる。 Therefore, an image processing apparatus capable of simultaneously obtaining an image of a wide visual field range, an image of a narrow visual field range, and an image as a stereo camera by a pair of imaging means, and estimating the distance to the stereo distance measurement object recognized as an image, and A vehicle front monitoring apparatus can be provided.
 本発明は上記の実施形態に限定されるものではなく、要旨を逸脱しない範囲で種々変更して実施することが可能である。例えば次のように変形して実施することができ、これらの実施形態も本発明の技術的範囲に属する。 The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention. For example, the present invention can be modified as follows, and these embodiments also belong to the technical scope of the present invention.
 画像処理装置に無線通信手段を設けて、表示手段60を有する遠隔操作装置に無線通信するようにしてもよい。 The image processing apparatus may be provided with wireless communication means, and may be wirelessly communicated with a remote control device having the display means 60.
 あるいは、画像処理装置に表示手段60が一体に設けられていてもよい。 Alternatively, the display means 60 may be integrally provided in the image processing apparatus.
 1、2 画像処理装置
 10 第1の撮像手段
 11 広角レンズ
 12 第1の撮像素子
 20 第2の撮像手段
 21 望遠レンズ
 22 第2の撮像素子
 30 カメラユニット
 31 画像出力部
 40 画像認識手段(画像認識ユニット)
 41 画像入力部
 42 画像処理部
 43 距離推定処理部
 44 表示用画像出力部
 45 座標変換表記憶部
 50 制御手段
 60 表示手段
 70 警告判定部
 71 警告手段
 72 危険回避操作手段
 100 車両前方監視装置
DESCRIPTION OF SYMBOLS 1, 2 Image processing apparatus 10 1st imaging means 11 Wide angle lens 12 1st imaging device 20 2nd imaging means 21 Telephoto lens 22 2nd imaging device 30 Camera unit 31 Image output part 40 Image recognition means (image recognition) unit)
DESCRIPTION OF SYMBOLS 41 Image input part 42 Image processing part 43 Distance estimation process part 44 Display image output part 45 Coordinate conversion table memory | storage part 50 Control means 60 Display means 70 Warning determination part 71 Warning means 72 Risk avoidance operation means 100 Vehicle forward monitoring apparatus

Claims (8)

  1.  第1の画像情報を撮像する第1の撮像手段と、
    前記第1の撮像手段よりも視野範囲が狭く、且つ、前記第1の画像情報と共通領域を有する第2の画像情報を撮像する第2の撮像手段と、
    前記第1の画像情報及び前記第2の画像情報を基に、対象物を認識する画像認識手段と、を有し、
     前記画像認識手段は、前記第1の画像情報を補正して第1の画像、及び、前記第2の画像情報を補正して第2の画像、を取得して、前記第1の画像から前記共通領域に対応させた第3の画像を切り出す処理が行われる画像処理部と、
    前記対象物において、ステレオ測距対象物として前記第3の画像に含まれる特徴点を抽出して、前記特徴点に対応する前記第2の画像に含まれる対応点を探索して、前記第3の画像における前記特徴点の画像位置と前記第2の画像における前記対応点の画像位置とを基に、前記ステレオ測距対象物までの距離を推定する処理が行われる距離推定処理部と、を備えている
    ことを特徴とする画像処理装置。
    First imaging means for imaging first image information;
    A second imaging unit that captures second image information having a field of view narrower than the first imaging unit and having a common area with the first image information;
    Image recognition means for recognizing an object based on the first image information and the second image information,
    The image recognition means corrects the first image information to obtain a first image and a second image by correcting the second image information, and obtains the second image from the first image. An image processing unit that performs a process of cutting out a third image corresponding to the common area;
    In the object, a feature point included in the third image as a stereo ranging object is extracted, and a corresponding point included in the second image corresponding to the feature point is searched, and the third object is searched. A distance estimation processing unit that performs a process of estimating a distance to the stereo distance measurement object based on the image position of the feature point in the image and the image position of the corresponding point in the second image; An image processing apparatus comprising:
  2.  前記画像処理部は、あらかじめ座標変換表が記憶されている座標変換表記憶部を有し、
     前記画像処理部において、前記第1の画像情報に対して前記座標変換表を用いた歪み除去処理が行われて、前記第1の画像を取得することを特徴とする請求項1に記載の画像処理装置。
    The image processing unit has a coordinate conversion table storage unit in which a coordinate conversion table is stored in advance,
    The image according to claim 1, wherein the image processing unit obtains the first image by performing distortion removal processing using the coordinate conversion table on the first image information. Processing equipment.
  3.  前記画像処理部において、前記第1の画像に含まれる色特徴を検知して、前記色特徴に関係付けされた色特徴対象物として前記対象物を画像認識する処理が行われることを特徴とする請求項1に記載の画像処理装置。 In the image processing unit, a color feature included in the first image is detected, and a process for recognizing the object as a color feature object related to the color feature is performed. The image processing apparatus according to claim 1.
  4.  前記第2の撮像手段の視野範囲から前記対象物が外れる場合、前記第1の撮像手段によって取得された前記第1の画像にて前記対象物を継続追尾することを特徴とする請求項1に記載の画像処理装置。 The object is continuously tracked by the first image acquired by the first imaging means when the object is out of the visual field range of the second imaging means. The image processing apparatus described.
  5.  前記第1の撮像手段及び前記第2の撮像手段が車両前方を撮像するように搭載され、
    前記第1の画像が車両前方における第1の遠距離画像を含む近距離画像であって、
    前記第2の画像が車両前方における第2の遠距離画像であって、
    前記第2の画像に含まれる前記ステレオ測距対象物の情報を前記第1の画像上で関係付けすることを特徴とする請求項1に記載の画像処理装置。
    The first imaging means and the second imaging means are mounted so as to image the front of the vehicle,
    The first image is a short distance image including a first long distance image in front of the vehicle,
    The second image is a second long-distance image in front of the vehicle,
    The image processing apparatus according to claim 1, wherein information on the stereo distance measurement object included in the second image is related on the first image.
  6.  前記第1の撮像手段と前記第2の撮像手段とが同一基板に配置されていることを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein the first imaging unit and the second imaging unit are disposed on the same substrate.
  7.  前記第2の撮像手段が赤外光を集光可能であり、前記第1の撮像手段が近赤外光を集光可能であり、前記第2の画像と前記第3の画像とが、赤外光で撮像された画像を含んでいることを特徴とする請求項1に記載の画像処理装置。 The second imaging means can collect infrared light, the first imaging means can collect near-infrared light, and the second image and the third image are red. The image processing apparatus according to claim 1, further comprising an image captured with external light.
  8.  車両に請求項1ないし請求項7のいずれかに記載の画像処理装置を備えた車両前方監視装置であり、前記画像処理装置によって推定された前記ステレオ測距対象物までの距離をもって、乗員に前方情報を報知する車両前方監視装置。 A vehicle forward monitoring device comprising the image processing device according to any one of claims 1 to 7 on a vehicle, wherein the vehicle is in front of the occupant with a distance to the stereo ranging object estimated by the image processing device. A vehicle forward monitoring device for notifying information.
PCT/JP2013/076980 2012-10-04 2013-10-03 Image processing device and device for monitoring area in front of vehicle WO2014054753A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012221833A JP2015232442A (en) 2012-10-04 2012-10-04 Image processor and vehicle front monitoring device
JP2012-221833 2012-10-04

Publications (1)

Publication Number Publication Date
WO2014054753A1 true WO2014054753A1 (en) 2014-04-10

Family

ID=50435072

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/076980 WO2014054753A1 (en) 2012-10-04 2013-10-03 Image processing device and device for monitoring area in front of vehicle

Country Status (2)

Country Link
JP (1) JP2015232442A (en)
WO (1) WO2014054753A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015085338A1 (en) * 2013-12-13 2015-06-18 Fts Computertechnik Gmbh Method and device for observing the environment of a vehicle
GB2541101A (en) * 2015-06-23 2017-02-08 Bosch Gmbh Robert Method and camera system for determining the distance of objects in relation to a vehicle
CN106548445A (en) * 2016-10-20 2017-03-29 天津大学 Spatial domain picture general steganalysis method based on content
CN109835266A (en) * 2017-11-29 2019-06-04 株式会社电装 Camera module
EP3150961B1 (en) * 2014-05-28 2023-01-04 Kyocera Corporation Stereo camera device and vehicle provided with stereo camera device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129543A (en) * 2016-01-22 2017-07-27 京セラ株式会社 Stereo camera device and vehicle
US20190278273A1 (en) * 2018-03-07 2019-09-12 Robert Bosch Gmbh Odometry system and method for tracking traffic lights
US10682955B1 (en) * 2018-12-03 2020-06-16 Beijing Voyager Technology Co., Ltd. Multicamera system for autonomous driving vehicles
CN112348899A (en) 2019-08-07 2021-02-09 虹软科技股份有限公司 Calibration parameter obtaining method and device, processor and electronic equipment
CN112668505A (en) * 2020-12-30 2021-04-16 北京百度网讯科技有限公司 Three-dimensional perception information acquisition method of external parameters based on road side camera and road side equipment
JPWO2022224533A1 (en) * 2021-04-21 2022-10-27

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62286189A (en) * 1986-06-04 1987-12-12 Omron Tateisi Electronics Co High speed visual recognizing device
JP2004364212A (en) * 2003-06-09 2004-12-24 Fujitsu Ltd Object photographing apparatus, object photographing method and object photographing program
JP2007506074A (en) * 2003-09-19 2007-03-15 ダイムラークライスラー・アクチェンゲゼルシャフト Measuring the distance to an object
JP2007139564A (en) * 2005-11-17 2007-06-07 Sumitomo Electric Ind Ltd Obstacle detection system, obstacle detection method and computer program
JP2008116309A (en) * 2006-11-02 2008-05-22 Fujifilm Corp Method and apparatus for generating range image
JP2009139995A (en) * 2007-12-03 2009-06-25 National Institute Of Information & Communication Technology Unit and program for real time pixel matching in stereo image pair
JP2009146217A (en) * 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device
JP2011013064A (en) * 2009-07-01 2011-01-20 Nikon Corp Position detection device
JP2011203238A (en) * 2010-03-01 2011-10-13 Ricoh Co Ltd Image pickup device and distance measuring device
JP2012032349A (en) * 2010-08-03 2012-02-16 Alps Electric Co Ltd Stereo camera system and vehicle equipped with the system
JP2013156109A (en) * 2012-01-30 2013-08-15 Hitachi Ltd Distance measurement device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62286189A (en) * 1986-06-04 1987-12-12 Omron Tateisi Electronics Co High speed visual recognizing device
JP2004364212A (en) * 2003-06-09 2004-12-24 Fujitsu Ltd Object photographing apparatus, object photographing method and object photographing program
JP2007506074A (en) * 2003-09-19 2007-03-15 ダイムラークライスラー・アクチェンゲゼルシャフト Measuring the distance to an object
JP2007139564A (en) * 2005-11-17 2007-06-07 Sumitomo Electric Ind Ltd Obstacle detection system, obstacle detection method and computer program
JP2008116309A (en) * 2006-11-02 2008-05-22 Fujifilm Corp Method and apparatus for generating range image
JP2009139995A (en) * 2007-12-03 2009-06-25 National Institute Of Information & Communication Technology Unit and program for real time pixel matching in stereo image pair
JP2009146217A (en) * 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device
JP2011013064A (en) * 2009-07-01 2011-01-20 Nikon Corp Position detection device
JP2011203238A (en) * 2010-03-01 2011-10-13 Ricoh Co Ltd Image pickup device and distance measuring device
JP2012032349A (en) * 2010-08-03 2012-02-16 Alps Electric Co Ltd Stereo camera system and vehicle equipped with the system
JP2013156109A (en) * 2012-01-30 2013-08-15 Hitachi Ltd Distance measurement device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015085338A1 (en) * 2013-12-13 2015-06-18 Fts Computertechnik Gmbh Method and device for observing the environment of a vehicle
US9898670B2 (en) 2013-12-13 2018-02-20 Fts Computertechnik Gmbh Method and device for observing the environment of a vehicle
EP3150961B1 (en) * 2014-05-28 2023-01-04 Kyocera Corporation Stereo camera device and vehicle provided with stereo camera device
GB2541101A (en) * 2015-06-23 2017-02-08 Bosch Gmbh Robert Method and camera system for determining the distance of objects in relation to a vehicle
CN106548445A (en) * 2016-10-20 2017-03-29 天津大学 Spatial domain picture general steganalysis method based on content
CN109835266A (en) * 2017-11-29 2019-06-04 株式会社电装 Camera module
CN109835266B (en) * 2017-11-29 2023-08-08 株式会社电装 Image pickup device module

Also Published As

Publication number Publication date
JP2015232442A (en) 2015-12-24

Similar Documents

Publication Publication Date Title
WO2014054753A1 (en) Image processing device and device for monitoring area in front of vehicle
US10255509B2 (en) Adaptive lane marker detection for a vehicular vision system
US11535154B2 (en) Method for calibrating a vehicular vision system
US11270134B2 (en) Method for estimating distance to an object via a vehicular vision system
US11417116B2 (en) Vehicular trailer angle detection system
JP5951785B2 (en) Image processing apparatus and vehicle forward monitoring apparatus
JP4425495B2 (en) Outside monitoring device
US9563951B2 (en) Vehicle vision system with targetless camera calibration
US20080198226A1 (en) Image Processing Device
US20070069872A1 (en) Vehicle driving assist system
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
US10848660B2 (en) Imaging apparatus, imaging module, and control method of imaging apparatus
US10671868B2 (en) Vehicular vision system using smart eye glasses
US20210197893A1 (en) Vehicular trailering assist system with targetless calibration of trailer cameras
US11410334B2 (en) Vehicular vision system with camera calibration using calibration target
US20200057149A1 (en) Optical sensor and electronic device
EP2770478B1 (en) Image processing unit, imaging device, and vehicle control system and program
JP6471522B2 (en) Camera parameter adjustment device
JP2007134961A (en) Vehicle detection device and display device for vehicle using the same
US20210046870A1 (en) Image processing apparatus, imaging apparatus, driving assistance apparatus, mobile body, and image processing method
JP2006178652A (en) Vehicle environment recognition system and image processor
JP2006303985A (en) Predictive course display device and method
TW201739648A (en) Method for superposing images reducing a driver&#39;s blind corners to improve driving safety.
JP2010148058A (en) Device and method for driving support
JP2017117357A (en) Three-dimensional object detection device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13844342

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13844342

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP