JP5951785B2 - Image processing apparatus and vehicle forward monitoring apparatus - Google Patents

Image processing apparatus and vehicle forward monitoring apparatus Download PDF

Info

Publication number
JP5951785B2
JP5951785B2 JP2014539827A JP2014539827A JP5951785B2 JP 5951785 B2 JP5951785 B2 JP 5951785B2 JP 2014539827 A JP2014539827 A JP 2014539827A JP 2014539827 A JP2014539827 A JP 2014539827A JP 5951785 B2 JP5951785 B2 JP 5951785B2
Authority
JP
Japan
Prior art keywords
image
imaging
vehicle
distance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014539827A
Other languages
Japanese (ja)
Other versions
JPWO2014054752A1 (en
Inventor
山下 龍麿
龍麿 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd filed Critical Alps Electric Co Ltd
Application granted granted Critical
Publication of JP5951785B2 publication Critical patent/JP5951785B2/en
Publication of JPWO2014054752A1 publication Critical patent/JPWO2014054752A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

本発明は、画像認識した対象物までの距離が推定できる画像処理装置及び車両前方監視装置に関する。   The present invention relates to an image processing apparatus and a vehicle forward monitoring apparatus that can estimate a distance to an object whose image has been recognized.

車両にカメラを搭載して車両前方を監視し、前方の車両や障害物を画像情報から抽出し、それらに衝突する前に警告を発したり、危険回避操作としてブレーキを作動させたりする車両前方監視装置が知られている。   Vehicle front monitoring by mounting a camera on the vehicle, extracting the vehicle and obstacles ahead from the image information, issuing a warning before colliding with them, and operating the brake as a danger avoidance operation The device is known.

画像情報を基に車両前方の対象物との距離を推定する装置では、ステレオカメラと呼ばれる一対の撮像手段によって撮像した画像情報を基に、三角測量の原理を応用して対象物までの距離を算出している。   In an apparatus that estimates the distance to an object in front of a vehicle based on image information, the distance to the object is calculated by applying the principle of triangulation based on image information captured by a pair of imaging means called stereo cameras. Calculated.

ステレオカメラを用いた距離算出の精度は、画像位置の相対的な変化を検出する精度に依存しているので、遠方の対象物に対して推定可能な距離は、撮像された画像情報の量と撮像手段の光学特性とで制約される。このため、時速100km程度の走行時に適用される車両前方監視装置は、カメラの焦点距離を長くして視野範囲を狭めることによって精度を確保した遠距離用のカメラが用いられた。   Since the accuracy of distance calculation using a stereo camera depends on the accuracy of detecting the relative change in the image position, the distance that can be estimated for a distant object is the amount of image information captured. It is limited by the optical characteristics of the imaging means. For this reason, as a vehicle front monitoring device applied when traveling at a speed of about 100 km / h, a long-distance camera is used which ensures accuracy by increasing the focal length of the camera and narrowing the visual field range.

一方、低速走行時においては、車両の斜め前方まで認識できることが必要である。また高速走行中において、斜め前方から自車両の直前に割り込んできた他車両を検出するような場合には、広い視野範囲の画像情報を確保しておく必要があった。このため、カメラの焦点距離を短くして視野範囲を確保した近距離用のカメラが用いられた。   On the other hand, when traveling at a low speed, it is necessary to be able to recognize the vehicle diagonally forward. Also, when detecting another vehicle that has entered the vehicle immediately before the host vehicle while traveling at a high speed, it is necessary to ensure image information in a wide field of view. For this reason, a short-distance camera was used in which the focal length of the camera was shortened to ensure a field of view range.

特許文献1には、近距離用のCCDカメラと遠距離用のCCDカメラとをそれぞれステレオカメラとして持ち、どちらかのステレオカメラの画像処理を状況に応じて切替える構造の車外監視装置が開示されている。   Patent Document 1 discloses an out-of-vehicle monitoring device having a structure in which a short-distance CCD camera and a long-distance CCD camera are respectively provided as stereo cameras, and image processing of either stereo camera is switched depending on the situation. Yes.

図13は、特許文献1に記載の車外監視装置を備える車両200の正面図である。図13に示すように、遠距離用のCCDカメラ201、202と近距離用のCCDカメラ211、212との合計4台のカメラが搭載されている、遠距離用又は近距離用のどちらかの画像がステレオ画像処理装置に入力されて、左右画像上の位置のずれ量が決定され、対象物までの距離が算出される。   FIG. 13 is a front view of a vehicle 200 including the outside monitoring apparatus described in Patent Literature 1. FIG. As shown in FIG. 13, a total of four cameras, a long-distance CCD camera 201, 202 and a short-distance CCD camera 211, 212, are mounted. The image is input to the stereo image processing apparatus, the amount of positional deviation on the left and right images is determined, and the distance to the object is calculated.

特許文献2には、近距離撮影用カメラのレンズと遠距離撮影用カメラのレンズとをそれぞれステレオカメラのレンズとして持ち、それぞれが撮像する画像を別々の撮像領域(撮像面)に形成させた構造の撮像装置が開示されている。近距離撮影用ステレオカメラのレンズと遠距離撮影用ステレオカメラのレンズとを組み合わせて車両近傍から遠方まで、距離測定に適した鮮明な画像情報を得られるとともに、それらの画像を切り替えることなく取得できる。   Patent Document 2 discloses a structure in which a lens for a short-distance shooting camera lens and a lens for a long-distance shooting camera are each used as a stereo camera lens, and images captured by the respective lenses are formed in separate imaging regions (imaging surfaces). An imaging apparatus is disclosed. Combining the lens of a stereo camera for short-distance shooting and the lens of a stereo camera for long-distance shooting, it is possible to obtain clear image information suitable for distance measurement from the vicinity of the vehicle to a distance, and to acquire these images without switching. .

このことから、遠距離撮影用ステレオカメラの作動中である高速走行中において、斜め前方から自車両の直前に他車両等が割り込んで来たような場合でも、近距離撮影用ステレオカメラの画像情報によって割り込み車両を検出し、直ちに警告や危険回避操作に繋げることができる。   Therefore, even when another vehicle or the like has entered the vehicle just before the host vehicle from diagonally forward during high-speed driving, which is the operation of the stereo camera for long-distance shooting, the image information of the stereo camera for short-distance shooting It is possible to detect an interrupting vehicle and immediately connect to a warning or danger avoidance operation.

特開平5−265547号公報JP-A-5-265547 特開2010−271143号公報JP 2010-271143 A

しかしながら、遠距離撮影用カメラは、夜間の街灯が少ない道路においても撮像できる要求があり、いわゆる暗視が可能なものが必要である。そのため、赤外光フィルタを用いて赤外光波長帯による画像を撮像するカメラ、または、赤外カットフィルタを用いずに可視光波長帯及び赤外光波長帯による画像を撮像するカメラが使用される。上記従来技術の構造においては、近距離撮影用ステレオカメラのレンズと遠距離撮影用ステレオカメラのレンズとを用いることから、少なくともレンズが4つ必要となる。   However, the long-distance shooting camera is required to be able to capture an image even on a road with few street lamps at night, and a camera capable of so-called night vision is required. Therefore, a camera that captures an image in the infrared light wavelength band using an infrared light filter or a camera that captures an image in the visible light wavelength band and the infrared light wavelength band without using an infrared cut filter is used. The In the structure of the above-described prior art, at least four lenses are required because the lenses of the short-distance shooting stereo camera and the long-distance shooting stereo camera are used.

また、これらの暗視用カメラの画像は、可視光波長帯のカラー画像ではないため、物体の色が取得できないものであった。そのため、色情報の認識ができなかった。色情報の認識を行うためには、赤外光波長帯による画像を撮像する一対のステレオカメラに加えて、可視光波長帯による画像を撮像するカメラを用意して、車外監視装置(車両前方監視装置)を構成する必要があり、必要な画像処理装置が高価となってしまう。   Further, these night vision camera images are not color images in the visible light wavelength band, and thus the color of the object cannot be acquired. Therefore, the color information could not be recognized. In order to recognize color information, in addition to a pair of stereo cameras that capture images in the infrared light wavelength band, a camera that captures images in the visible light wavelength band is prepared. Device), and a necessary image processing apparatus becomes expensive.

本発明は、上記課題を解決するためのものであり、特に、一対の撮像手段によって、色特徴を含む画像と暗視画像とステレオカメラとしての画像とを同時に取得し、画像認識した対象物までの距離が推定できるとともに、色特徴対象物を画像認識できる画像処理装置及び車両前方監視装置を提供するものである。   The present invention is for solving the above-described problems, and in particular, by using a pair of imaging means, an image including color features, a night vision image, and an image as a stereo camera are simultaneously acquired, and the image recognition target is also obtained. It is possible to provide an image processing apparatus and a vehicle forward monitoring apparatus that can estimate the distance of the image and recognize the image of the color feature object.

本発明の画像処理装置は、相対的に画角が広いレンズを介して集光した可視光及び近赤外光を受光することで、車両前方を可視光及び近赤外光で撮像可能な第1の撮像手段と、相対的に画角が狭いレンズを介して集光した遠赤外光を受光することで、同じく車両前方において、前記第1の撮像手段の視野と共通領域を含む視野範囲を遠赤外光で撮像可能な第2の撮像手段と、前記第1の撮像手段によって撮像された第1の画像情報及び前記第2の撮像手段によって撮像された第2の画像情報を基に、対象物を認識する画像認識手段と、を有し、前記画像認識手段は、前記第1の画像情報を補正して第1の画像、及び、前記第2の画像情報を補正して第2の画像、を取得し、さらに前記第1の画像から前記第2の画像との共通領域に対応する白黒の第3の画像を切り出し、前記第1の画像によって前記対象物の色特徴を検知して、前記色特徴に関係付けされた色特徴対象物として前記対象物を画像認識する処理が行われる画像処理部と、前記第3の画像に含まれる前記対象物の特徴点を抽出し、ステレオ測距対象物として前記対象物を画像認識し、前記特徴点に対応する対応点を前記第2の画像から探し、前記第3の画像の特徴点と前記第2の画像の対応点から前記対象物までの距離を推定する処理が行われる距離推定処理部と、を備え、抽出された前記特徴点が前記第2および第3の画像の範囲から外れた後も、前記第1の画像において前記色特徴対象物として前記対象物を認識し続け、必要に応じて車両の乗員に前記対象物の情報を通知することを特徴とする。 The image processing apparatus of the present invention receives visible light and near-infrared light collected through a lens having a relatively wide angle of view, so that the front of the vehicle can be imaged with visible light and near-infrared light . A field-of-view range including a common area with the field of view of the first imaging unit in front of the vehicle by receiving far-infrared light collected through one imaging unit and a lens having a relatively narrow angle of view On the basis of the second image pickup means capable of picking up the image with far infrared light, the first image information picked up by the first image pickup means and the second image information picked up by the second image pickup means. Image recognition means for recognizing an object, wherein the image recognition means corrects the first image information and corrects the first image and the second image information to correct the second image information. white image, acquires a further corresponding to the common region and the second image from said first image The cut out third image, the by the first image by detecting the color characteristics of the object, an image of the object image recognizing processing is performed as the color characteristic objects that are related with the color feature A processing unit extracts feature points of the object included in the third image, recognizes the object as a stereo ranging object, and sets corresponding points corresponding to the feature points in the second image. A distance estimation processing unit that performs a process of estimating a distance from the feature point of the third image and the corresponding point of the second image to the target object, and the extracted feature point is Even after deviating from the range of the second and third images, the object continues to be recognized as the color feature object in the first image, and the vehicle occupant is informed of the object information as necessary. It is characterized by notifying .

第1の撮像手段は、相対的に画角が広いレンズを介して集光した可視光及び近赤外光を受光することで第1の画像情報を撮像できる。第2の撮像手段は、相対的に画角が狭いレンズを介して集光した遠赤外光を受光することで、第1の撮像手段の視野と共通領域を含む視野範囲第2の画像情報を撮像できる。これにより、画像処理装置は、第1の画像情報及び第2の画像情報を補正して第1の画像及び第2の画像を取得して、第1の画像によって対象物の色特徴を検知して、色特徴に関係付けされた色特徴対象物として対象物を画像認識する。また、第1の画像と第2の画像とを基に、ステレオ測距対象物として前記対象物を画像認識し、画像処理装置の撮像位置から該ステレオ測距対象物までの距離を推定できる。よって、それぞれ1つのレンズを備えた一対の撮像手段によって、色特徴を含む画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定できるとともに、色特徴対象物を画像認識できる。したがって、2台のステレオカメラを用いることなく同等の画像処理が可能な画像処理装置とすることができる。 The first imaging means can capture the first image information by receiving visible light and near-infrared light collected through a lens having a relatively wide angle of view . The second imaging means receives far-infrared light collected through a lens having a relatively narrow angle of view, so that the second image can be obtained in a visual field range including the visual field and the common area of the first imaging means. Information can be imaged. Accordingly, the image processing apparatus corrects the first image information and the second image information to acquire the first image and the second image, and detects the color feature of the object by the first image. Thus, the object is image-recognized as the color feature object related to the color feature. Further, based on the first image and the second image, the object can be recognized as a stereo distance measurement object, and the distance from the imaging position of the image processing apparatus to the stereo distance measurement object can be estimated. Accordingly, an image including a color feature and an image as a stereo camera can be simultaneously acquired by a pair of imaging units each including a single lens, and the distance to the recognized stereo ranging object can be estimated. The feature object can be recognized as an image. Therefore, an image processing apparatus capable of performing equivalent image processing without using two stereo cameras can be provided.

また、可視光及び近赤外光で第1の画像を取得するので、第1の画像に含まれる物体の色特徴を検知して対象物を画像認識することができるとともに、第1の画像と第2の画像との赤外光波長帯でのステレオカメラとしての画像を取得できる。こうすれば、可視光の光量が少ない夜間やトンネル内であっても、赤外光による画像で補うことができ、暗視のステレオ測距性能が向上する。 In addition , since the first image is acquired with visible light and near-infrared light, the object can be recognized by detecting the color characteristics of the object included in the first image, and the first image and An image as a stereo camera in the infrared wavelength band with the second image can be acquired. In this way, even at night or in a tunnel where the amount of visible light is small, it can be supplemented with an image by infrared light, and the night vision stereo ranging performance is improved.

また、第2の画像として遠赤外光での画像を取得するので、夜間に人体を検知する感度が、さらに向上する。 Further, since acquiring an image of the far-infrared light as the second image, the sensitivity of detecting the human body at night, is further improved.

また、車両前方の近距離に位置する信号や標識を視野内に捉えて、信号や標識を色特徴によって検知することができる。第1の撮像手段は視野範囲が広いので、第1の画像には第2の画像と視野範囲が共通する共通領域も撮像可能であり、共通領域に対応させた第3の画像を切り出すことができる。第2の画像及び第3の画像に含まれるステレオ測距対象物の情報を第1の画像上で関係付けすれば、車両前方の遠距離に位置する信号や標識を車両前方の近距離に近づいても認識し続けることができる。 In addition , signals and signs located at a short distance in front of the vehicle can be captured in the field of view, and the signals and signs can be detected by color characteristics. Since the first imaging means has a wide visual field range, the first image can also capture a common area having the same visual field range as the second image, and a third image corresponding to the common area can be cut out. it can. If the information on the stereo ranging object included in the second image and the third image is related on the first image, a signal or a sign located at a long distance in front of the vehicle approaches a short distance in front of the vehicle. But you can continue to recognize.

前記第1の撮像手段と前記第2の撮像手段とが同一基板に配置されていることが好ましい。第1の撮像手段と第2の撮像手段とが同一基板に配置されているので、使用場所に取り付ける前に光学的な調整を行っておくことが可能になる。したがって、取り付けが容易であるとともに、左右のカメラが別体の配置に比べて、取り付け後の光学的な校正が不要である。   It is preferable that the first imaging unit and the second imaging unit are disposed on the same substrate. Since the first image pickup means and the second image pickup means are arranged on the same substrate, it is possible to perform optical adjustment before attaching to the place of use. Therefore, attachment is easy, and optical calibration after attachment is unnecessary compared with the arrangement of the left and right cameras separately.

前記画像処理部は、あらかじめ座標変換表が記憶されている座標変換表記憶部を有し、前記画像処理部において、前記第1の画像情報及び前記第2の画像情報に対して、前記座標変換表を用いた平行化処理が行われていることが好ましい。こうすれば、第1の撮像手段及び第2の撮像手段が理想的な平行姿勢にない状態で取得される画像情報を平行姿勢で取得される画像に補正することができる。この平行化処理による画像補正は、あらかじめ作成しておいた座標変換表を用いて行うので、画像データの画素数が多くても、高速処理が可能である。高速処理が可能であるため、画像認識の処理速度を低下させることがない。   The image processing unit includes a coordinate conversion table storage unit in which a coordinate conversion table is stored in advance. In the image processing unit, the coordinate conversion is performed on the first image information and the second image information. It is preferable that a parallelization process using a table is performed. By so doing, it is possible to correct image information acquired in a state where the first imaging unit and the second imaging unit are not in an ideal parallel posture into an image acquired in a parallel posture. Since the image correction by the parallelization process is performed using a coordinate conversion table prepared in advance, high-speed processing is possible even if the number of pixels of the image data is large. Since high-speed processing is possible, the processing speed of image recognition is not reduced.

さらに、本発明の車両前方監視装置は、上記の画像処理装置を備えた車両前方監視装置であり、前記画像処理装置によって推定された前記対象物までの距離、または、画像認識された前記色特徴対象物、をもって、乗員に前方情報を報知するという特徴を有する。   Furthermore, the vehicle forward monitoring device of the present invention is a vehicle forward monitoring device including the image processing device described above, and the distance to the object estimated by the image processing device or the color feature that has been image-recognized. It has the feature of notifying the passenger of the front information with the object.

本発明によれば、それぞれ1つのレンズを備えた一対の撮像手段によって、色特徴を含む画像と暗視画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定できるとともに、色特徴対象物を画像認識できる。こうすれば、2台のステレオカメラを用いることなく同等の画像処理が可能な画像処理装置とすることができる。 According to the present invention, by a pair of image pickup means having a their respective one lens, acquires the image as an image and a night vision image and a stereo camera including a color characteristic simultaneously, image recognition stereo ranging The distance to the object can be estimated, and the color feature object can be recognized. If it carries out like this, it can be set as the image processing apparatus in which an equivalent image processing is possible, without using two stereo cameras.

したがって、一対の撮像手段によって、色特徴を含む画像と暗視画像とステレオカメラとしての画像とを同時に取得し、画像認識した対象物までの距離が推定できるとともに、色特徴対象物を画像認識できる画像処理装置及び車両前方監視装置を提供することができる。   Therefore, a pair of imaging means can simultaneously acquire an image including a color feature, a night vision image, and an image as a stereo camera, can estimate the distance to the recognized object, and can recognize the color feature object. An image processing apparatus and a vehicle front monitoring apparatus can be provided.

本発明の第1実施形態における画像処理装置を示すブロック図である。1 is a block diagram illustrating an image processing apparatus according to a first embodiment of the present invention. 第1実施形態の画像処理装置が搭載された車両の模式正面図である。It is a model front view of the vehicle by which the image processing apparatus of 1st Embodiment is mounted. 第1実施形態の画像処理装置が搭載された車両を上から見た俯瞰図である。It is the bird's-eye view which looked at the vehicle carrying the image processing device of a 1st embodiment from the top. 第1の画像情報の画像補正を示す説明図であり、図4(a)は画像情報を補正する前の画像イメージであり、図4(b)は補正後の画像イメージである。FIGS. 4A and 4B are explanatory diagrams showing image correction of the first image information. FIG. 4A is an image image before the image information is corrected, and FIG. 4B is an image image after the correction. 第1実施形態における画像処理手順について説明するフローチャートである。It is a flowchart explaining the image processing procedure in 1st Embodiment. 第1の撮像手段で取得された第1の画像及び第3の画像を示す説明図である。It is explanatory drawing which shows the 1st image and 3rd image which were acquired with the 1st imaging means. 第1の撮像手段で取得された第1の画像及び第2の撮像手段で取得された第2の画像を示す説明図である。It is explanatory drawing which shows the 1st image acquired with the 1st imaging means, and the 2nd image acquired with the 2nd imaging means. 可視光フィルタと赤外光フィルタの分光特性の説明図である。It is explanatory drawing of the spectral characteristic of a visible light filter and an infrared-light filter. 可視光の画像例である。It is an example of an image of visible light. 近赤外光の画像例である。It is an example of an image of near infrared light. 遠赤外光の画像例である。It is an example of a far-infrared light image. 第2実施形態の画像処理装置を備えた車両前方監視装置のブロック図である。It is a block diagram of the vehicle front monitoring apparatus provided with the image processing apparatus of 2nd Embodiment. 従来の車外監視装置を備える車両の正面図である。It is a front view of a vehicle provided with the conventional exterior monitoring apparatus.

[第1実施形態]
以下に第1実施形態における画像処理装置1について説明する。
[First Embodiment]
The image processing apparatus 1 in the first embodiment will be described below.

図1は、第1実施形態における画像処理装置1を示すブロック図である。画像処理装置1は、カメラユニット30と画像認識手段40と制御手段50とを備え、車両前方を撮像するように車両に搭載される。制御手段50は、カメラユニット30と画像認識手段(画像認識ユニット)40とに電源を供給するとともに、制御信号を出力して、それぞれの状態を制御している。   FIG. 1 is a block diagram illustrating an image processing apparatus 1 according to the first embodiment. The image processing apparatus 1 includes a camera unit 30, an image recognition unit 40, and a control unit 50, and is mounted on the vehicle so as to capture the front of the vehicle. The control unit 50 supplies power to the camera unit 30 and the image recognition unit (image recognition unit) 40 and outputs a control signal to control each state.

カメラユニット30は、広角レンズ11と第1の撮像素子12とを有して、第1の画像情報を得る第1の撮像手段10、望遠レンズ21と第2の撮像素子22とを有して、第2の画像情報を得る第2の撮像手段20、及び、第1の撮像手段10と第2の撮像手段20とに接続された画像出力部31、を備えている。画像出力部31は、第1の画像情報及び第2の画像情報を所定の時間間隔で繰り返し取得するとともに画像認識手段40に出力する電子回路である。   The camera unit 30 includes a wide-angle lens 11 and a first image sensor 12, and includes a first image capturing unit 10 that obtains first image information, a telephoto lens 21, and a second image sensor 22. The second image pickup means 20 for obtaining the second image information, and the image output section 31 connected to the first image pickup means 10 and the second image pickup means 20 are provided. The image output unit 31 is an electronic circuit that repeatedly acquires the first image information and the second image information at predetermined time intervals and outputs them to the image recognition means 40.

画像認識手段(画像認識ユニット)40は、第1の画像情報及び第2の画像情報を基に対象物を認識するため、画像入力部41、画像処理部42、距離推定処理部43、及び、表示用画像出力部44、を有している。画像入力部41には、画像出力部31から送信された画像情報が入力され、画像処理部42では、取得した画像情報を補正して第1の画像及び第2の画像を取得し、第1の画像から第3の画像を切り出す処理を行う。また、画像処理部42は、距離推定処理部43に送るステレオ画像データと表示用画像出力部44に送る表示用画像データとを出力する。   An image recognition means (image recognition unit) 40 recognizes an object based on the first image information and the second image information, and therefore, an image input unit 41, an image processing unit 42, a distance estimation processing unit 43, and A display image output unit 44. The image information transmitted from the image output unit 31 is input to the image input unit 41, and the image processing unit 42 corrects the acquired image information to acquire the first image and the second image, The third image is cut out from the first image. The image processing unit 42 outputs stereo image data to be sent to the distance estimation processing unit 43 and display image data to be sent to the display image output unit 44.

距離推定処理部43では、画像処理部42で補正された第1の画像から切り出された第3の画像と、画像処理部42で補正された第2の画像と、を基に、共通に含まれるステレオ測距対象物を認識して、ステレオ測距対象物までの距離を推定する処理が行われる。   The distance estimation processing unit 43 includes the third image cut out from the first image corrected by the image processing unit 42 and the second image corrected by the image processing unit 42 in common. A process for recognizing the stereo distance measurement object and estimating the distance to the stereo distance measurement object is performed.

表示用画像出力部44では、ユーザが視認しやすいように調整して表示用画像を出力する。また、距離推定処理部43で認識されたステレオ測距対象物を強調し、推定された距離を表示する処理を行う。   The display image output unit 44 adjusts the display image output unit 44 so that the user can easily recognize it, and outputs a display image. Moreover, the distance estimation process part 43 emphasizes the stereo ranging object and performs the process which displays the estimated distance.

図2は、本実施形態の画像処理装置1が搭載された車両の模式正面図である。車両の前方から見て、フロントガラス越しにカメラユニット30が装着されていることを視認できる。このカメラユニット30は広角レンズ11及び望遠レンズ21からなり、広角レンズ11と望遠レンズ21とは車両の同一高さ、且つ、左右方向に位置するとともに、車両前方の方向にレンズの光軸が向いている。カメラユニット30は、光学的な調整が容易にできるように、1枚のカメラユニット基板(図示しない)に、画像出力部31とともに、第1の撮像手段10と第2の撮像手段20とが組み込まれている。また、カメラユニット30とは分離されて、画像認識手段40が車両内部に配置されている。   FIG. 2 is a schematic front view of a vehicle on which the image processing apparatus 1 of the present embodiment is mounted. When viewed from the front of the vehicle, it can be visually confirmed that the camera unit 30 is mounted over the windshield. The camera unit 30 includes a wide-angle lens 11 and a telephoto lens 21. The wide-angle lens 11 and the telephoto lens 21 are positioned at the same height and in the left-right direction of the vehicle, and the optical axis of the lens is directed in the front direction of the vehicle. ing. The camera unit 30 includes the first imaging unit 10 and the second imaging unit 20 together with the image output unit 31 on one camera unit substrate (not shown) so that optical adjustment can be easily performed. It is. Further, the image recognition means 40 is disposed inside the vehicle, separated from the camera unit 30.

本実施形態の画像処理装置1は車両に搭載されているので、表示用画像出力部44から出力される表示用画像は、車両の運転席前方側に配置された表示手段60により視認される。表示手段60は、例えば液晶表示装置であり、カーナビゲーション装置やオーディオ装置の表示画面を利用することができる。また、運転用のステアリング近傍や運転席前方のフロントガラスに表示手段60を専用に設けてもよい。なお、使用する表示手段60の表示特性に合わせて、表示用画像出力部44でダイナミックレンジや階調を補正しておくことが好ましい。   Since the image processing apparatus 1 of this embodiment is mounted on a vehicle, the display image output from the display image output unit 44 is visually recognized by the display means 60 disposed on the front side of the driver's seat of the vehicle. The display means 60 is, for example, a liquid crystal display device, and a display screen of a car navigation device or an audio device can be used. Further, the display means 60 may be provided exclusively in the vicinity of the driving steering wheel or on the windshield in front of the driver's seat. It is preferable to correct the dynamic range and gradation in the display image output unit 44 in accordance with the display characteristics of the display means 60 to be used.

次に、本実施形態の画像処理装置1の撮像手段について説明する。   Next, the imaging means of the image processing apparatus 1 of this embodiment will be described.

本実施形態において、第1の撮像手段10は、広角レンズ11と第1の撮像素子12とを有し、可視光を集光可能に構成されている。一方、第2の撮像手段20は、望遠レンズ21と第2の撮像素子22とを有し、赤外光を集光可能に構成されている。   In the present embodiment, the first imaging means 10 includes a wide-angle lens 11 and a first imaging element 12 and is configured to be able to collect visible light. On the other hand, the second imaging unit 20 includes a telephoto lens 21 and a second imaging element 22 and is configured to be able to collect infrared light.

図3は、本実施形態の画像処理装置1が搭載された車両を上から見た俯瞰図である。模式的に、第1の撮像手段10の水平方向の画角(水平画角A1)及び第2の撮像手段20の水平方向の画角(水平画角A2)を表わしている。   FIG. 3 is an overhead view of a vehicle on which the image processing apparatus 1 of the present embodiment is mounted as viewed from above. Schematically, the horizontal field angle (horizontal field angle A1) of the first imaging unit 10 and the horizontal field angle (horizontal field angle A2) of the second imaging unit 20 are represented.

第1の撮像手段10に用いた第1の撮像素子12は、画素数が多く、カラー撮影用の可視光フィルタを備えている。透過する波長が赤色の領域、緑色の領域、及び青色の領域のRGBフィルタである。例えば、第1の撮像素子12には、ビデオカメラに搭載されている固体撮像素子を使用することができる。例えば、水平1920×垂直1080のカラー画像を30枚/秒で撮像可能な固体撮像素子を使用する。水平画角A1として40度の視野範囲を撮像できるように広角レンズ11が選択された。   The first imaging device 12 used for the first imaging means 10 has a large number of pixels and includes a visible light filter for color photography. This is an RGB filter whose wavelength to be transmitted is a red region, a green region, and a blue region. For example, a solid-state image sensor mounted on a video camera can be used for the first image sensor 12. For example, a solid-state imaging device capable of capturing a horizontal 1920 × vertical 1080 color image at 30 frames / second is used. The wide-angle lens 11 was selected so that a visual field range of 40 degrees could be imaged as the horizontal field angle A1.

一方、第2の撮像手段20に用いた第2の撮像素子22は、標準的なVGAと呼ばれる画素数で、且つ、赤外光を透過する赤外光フィルタを備えている。例えば、水平640×垂直480の白黒画像を30枚/秒で撮像可能な固体撮像素子を使用する。水平画角A2として20度の視野範囲を撮像できるように望遠レンズ21が選択された。図3に示すように、第2の撮像手段20の視野範囲は、第1の撮像手段10の視野範囲内にある。 On the other hand, the second imaging element 22 used in the second imaging means 20 has a standard number of pixels called VGA and includes an infrared filter that transmits infrared light . For example, using the image can be captured solid-state imaging device monochrome images of horizontal 640 × vertical 480 at 30 frames / sec. The telephoto lens 21 was selected so that a visual field range of 20 degrees could be imaged as the horizontal field angle A2. As shown in FIG. 3, the visual field range of the second imaging unit 20 is within the visual field range of the first imaging unit 10.

<画像処理手順>
次に、本実施形態における画像処理手順について説明する。画像処理装置1において、画像認識手段(画像認識ユニット)40は、第1の撮像手段10と第2の撮像手段20との相対的な取り付け姿勢に影響されず、カメラ実姿勢に含まれる取り付け誤差の影響を除去する平行化処理(Rectification)を行う。このとき、歪み除去処理も同時に行う。
<Image processing procedure>
Next, an image processing procedure in the present embodiment will be described. In the image processing apparatus 1, the image recognition unit (image recognition unit) 40 is not affected by the relative mounting posture between the first imaging unit 10 and the second imaging unit 20, and is included in the actual camera posture. A parallelization process (Rectification) is performed to remove the influence of the above. At this time, distortion removal processing is also performed at the same time.

一般的に、ステレオカメラを構成する左右の撮像手段の理想配置状態は、左右の撮像手段が完全に同一な平行姿勢で固定された状態である。そのため、ステレオカメラを用いた距離算出処理は、平行姿勢において撮影された左右の画像ペアを対象としている。   In general, the ideal arrangement state of the left and right imaging means constituting the stereo camera is a state in which the left and right imaging means are fixed in the same parallel posture. For this reason, the distance calculation process using a stereo camera targets a pair of left and right images taken in a parallel posture.

ステレオカメラの理想的な相対取り付け姿勢(平行姿勢)とは,カメラ座標系X軸(カメラ右方向)が基線と平行であり、且つ、カメラの光軸(カメラ座標系Z軸)が平行な姿勢のことである。ステレオカメラにおける基線とは、左右のレンズ中心を結ぶ直線である。画像情報の平行化処理は、撮影画像情報から、撮像手段が理想的な平行姿勢であったときに撮影されたであろう画像へと変換を行うことで達成される。ここで、カメラ座標系とは、カメラが持つ座標系であり、画像中心を原点として,右方向がX軸のプラス方向,下方向がY軸のプラス方向,カメラの正面向きがZ軸のプラス方向となるものを表す。   The ideal relative mounting orientation (parallel orientation) of a stereo camera is an orientation in which the camera coordinate system X axis (camera right direction) is parallel to the baseline and the camera optical axis (camera coordinate system Z axis) is parallel. That is. The base line in the stereo camera is a straight line connecting the left and right lens centers. The parallelization processing of the image information is achieved by converting the captured image information into an image that would have been captured when the imaging unit was in an ideal parallel posture. Here, the camera coordinate system is a coordinate system possessed by the camera, with the image center as the origin, the right direction is the positive direction of the X axis, the downward direction is the positive direction of the Y axis, and the front direction of the camera is the positive direction of the Z axis. Represents a direction.

画像処理装置1においては、カメラユニット30に第1の撮像手段10と第2の撮像手段20とが組み込まれて、取り付けの位置や傾きに対する機構的な調整が行われて固定される。この後、白と黒の方形が交互に配列されたチェッカーボードを撮像して取得された画像情報によって、第1の撮像手段10に対する第2の撮像手段20の光学的な相対位置データを取得する。すなわち、両レンズの光軸(カメラ座標系Z軸)方向の相対位置、光軸(カメラ座標系Z軸)に直交する平面(カメラ座標系X軸及びY軸の平面)上での上下左右位置、及び第1の撮像手段10に対する第2の撮像手段20のロール・ピッチ・ヨーが把握される。   In the image processing apparatus 1, the first imaging unit 10 and the second imaging unit 20 are incorporated in the camera unit 30, and are mechanically adjusted and fixed with respect to the mounting position and inclination. Thereafter, optical relative position data of the second imaging unit 20 with respect to the first imaging unit 10 is acquired by image information acquired by imaging a checkerboard in which white and black squares are alternately arranged. . That is, the relative position of both lenses in the direction of the optical axis (camera coordinate system Z axis), the vertical and horizontal positions on the plane (plane of the camera coordinate system X axis and Y axis) orthogonal to the optical axis (camera coordinate system Z axis) , And the roll, pitch, and yaw of the second imaging means 20 relative to the first imaging means 10 are grasped.

こうして得られた相対位置データは、画像処理部42にあらかじめ記録され、撮影画像情報から、撮像手段が理想的な平行姿勢であったときに撮影されたであろう画像へと校正する変換を行う平行化処理に適用される。   The relative position data obtained in this way is recorded in advance in the image processing unit 42, and conversion is performed to calibrate the captured image information to an image that would have been captured when the imaging means was in an ideal parallel posture. Applies to parallelization processing.

このとき、少なくとも、第1の撮像手段10で撮像された画像情報の歪み除去処理も同時に行う。すなわち、撮像手段がレンズに固有の像高特性を有しているため、画像データ上のXY座標と実空間での位置のXY座標とが一致するように変換を行う。上記のチェッカーボードのXY座標データが分かっているので、チェッカーボードを撮像した画像情報から歪み除去処理用のデータを取得することができる。第1の撮像手段10は第2の撮像手段20より広い視野範囲を有するので、撮像された画像情報は広角レンズ11に特有の中央が大きく写り、周辺が歪んでいる画像である。この歪みをもったままであると、第3の画像を第2の画像と比較することが複雑になる。このため、撮像された画像情報に対して歪み除去処理をおこなって、歪みの無い状態の第1の画像に変換する。図4は、チェッカーボードを撮像した第1の画像の画像補正を示す説明図である。図4(a)は画像を補正する前の画像イメージであり、図4(b)は補正後の画像イメージである。第2の撮像手段20で撮像された画像情報の歪み除去処理も同様に行うことが可能である。こうすれば、第1の撮像手段10及び第2の撮像手段20がそれぞれ固有のレンズ特性を有し、理想的な平行姿勢にない状態であっても、理想的な画像に補正することができる。   At this time, at least the distortion removal processing of the image information captured by the first imaging unit 10 is also performed at the same time. That is, since the imaging means has an image height characteristic unique to the lens, the conversion is performed so that the XY coordinates on the image data coincide with the XY coordinates of the position in the real space. Since the XY coordinate data of the checkerboard is known, distortion removal processing data can be acquired from image information obtained by imaging the checkerboard. Since the first imaging unit 10 has a wider field of view than the second imaging unit 20, the captured image information is an image in which the center peculiar to the wide-angle lens 11 is greatly reflected and the periphery is distorted. If this distortion remains, it becomes complicated to compare the third image with the second image. For this reason, distortion removal processing is performed on the captured image information to convert the image information into a first image without distortion. FIG. 4 is an explanatory diagram illustrating image correction of the first image obtained by imaging the checkerboard. FIG. 4A shows an image before the image is corrected, and FIG. 4B shows an image after the correction. The distortion removal process for the image information captured by the second imaging unit 20 can be performed in the same manner. In this way, even if the first imaging unit 10 and the second imaging unit 20 have unique lens characteristics and are not in an ideal parallel posture, it can be corrected to an ideal image. .

本実施形態においては、これらの画像補正を、LUT(Look Up Table)と呼ばれる変換手法によって行う。これは、撮像した画像情報における各画素の座標を、歪みの無い場合に撮像されるべき座標位置に配置し直すもので、あらかじめ座標変換表を作成しておく手法である。本実施形態では、チェッカーボードを撮像した画像情報から座標変換表を作成しておき、画像処理部42の座標変換表記憶部45に、あらかじめ座標変換表が記憶されている。画像処理部42において、座標変換表記憶部45に記憶されている第1の画像情報用の座標変換表を用いて、第1の画像情報に対して平行化処理及び歪み除去処理が行われ、第1の画像を取得する。同様に、第2の画像情報に対して第2の画像情報用の座標変換表を用いて、平行化処理及び歪み除去処理が行われ、第2の画像を取得する。なお、一方の画像情報を基準にすれば、平行化処理については他方の画像情報のみ行えばよい。一般的に、これらの画像補正は、画像情報の各画素に対して計算式を用いた計算により行うことができる。しかしながら、画素数が増加すると、計算量が膨大になるため、処理速度が低下する問題を有していた。本実施形態では、この歪み除去処理をあらかじめ記憶された座標変換表を用いて行うので、数式による演算処理が不要で、画像データの画素数が多くても高速処理が可能である。高速処理が可能であるため、画像認識の処理速度を低下させることがない。   In the present embodiment, these image corrections are performed by a conversion method called LUT (Look Up Table). In this method, the coordinates of each pixel in the captured image information are rearranged at the coordinate position to be imaged when there is no distortion, and this is a method of creating a coordinate conversion table in advance. In the present embodiment, a coordinate conversion table is created from image information obtained by imaging the checkerboard, and the coordinate conversion table is stored in advance in the coordinate conversion table storage unit 45 of the image processing unit 42. In the image processing unit 42, using the coordinate conversion table for the first image information stored in the coordinate conversion table storage unit 45, parallelization processing and distortion removal processing are performed on the first image information. A first image is acquired. Similarly, the second image information is subjected to a parallelization process and a distortion removal process using a second image information coordinate conversion table to obtain a second image. Note that if one image information is used as a reference, only the other image information needs to be performed for the parallelization processing. Generally, these image corrections can be performed by calculation using a calculation formula for each pixel of image information. However, when the number of pixels increases, the amount of calculation becomes enormous, which causes a problem that the processing speed decreases. In the present embodiment, since this distortion removal processing is performed using a coordinate conversion table stored in advance, arithmetic processing using mathematical formulas is unnecessary, and high-speed processing is possible even if the number of pixels of the image data is large. Since high-speed processing is possible, the processing speed of image recognition is not reduced.

図5は、第1実施形態における画像処理手順について説明するフローチャートである。画像認識手段40における画像処理手順として、ステップST1では、第1の撮像手段10と第2の撮像手段20とが撮像した画像情報が、画像処理部42に入力され、画像情報が取得される。ステップST2では、上述した画像補正を行い、第1の画像情報を補正して第1の画像、及び、第2の画像情報を補正して第2の画像が取得される。   FIG. 5 is a flowchart illustrating an image processing procedure in the first embodiment. As an image processing procedure in the image recognition unit 40, in step ST1, image information captured by the first imaging unit 10 and the second imaging unit 20 is input to the image processing unit 42, and image information is acquired. In step ST2, the above-described image correction is performed, the first image information is corrected to correct the first image, and the second image information is corrected to acquire the second image.

さらに、ステップST3では、取得された第1の画像から、第2の画像との共通領域に対応させた第3の画像を切り出し、第3の画像が取得される。第1の撮像手段10で撮像された第1の画像は、水平画角40度なので視野範囲が広く、第2の撮像手段20で撮像された第2の画像との共通領域を含んでいる。裏返して言えば、第2の撮像手段20で撮像された第2の画像は、水平画角20度なので、第1の画像に比べて視野範囲が狭く、且つ、第1の画像と共通領域を有する。そのため、第1の画像から、第2の画像との共通領域に対応させた第3の画像を切り出すことができる。   Further, in step ST3, a third image corresponding to the common area with the second image is cut out from the acquired first image, and the third image is acquired. The first image picked up by the first image pickup means 10 has a wide field of view since it has a horizontal angle of view of 40 degrees, and includes a common area with the second image picked up by the second image pickup means 20. In other words, since the second image captured by the second imaging unit 20 has a horizontal angle of view of 20 degrees, the visual field range is narrower than that of the first image, and a common area with the first image is formed. Have. Therefore, it is possible to cut out the third image corresponding to the common area with the second image from the first image.

ステップST2で第1の画像を補正するとともに、ステップST3で第1の画像から第3の画像を切り出す画像処理は、画像処理部42で行われる。このとき、切り出された第3の画像に対して、グレイスケール画像に変換される。   The image processing unit 42 performs image processing for correcting the first image in step ST2 and cutting out the third image from the first image in step ST3. At this time, the cut out third image is converted into a grayscale image.

次に、距離推定処理部43において、共通領域に対応させた第3の画像に含まれる対象物の特徴点を抽出して、特徴点に関係付けされたステレオ測距対象物を認識し、画像処理装置の撮像位置からステレオ測距対象物までの距離を推定する処理が行われる。ステップST4では、第3の画像に含まれる対象物の特徴点が抽出され、第3の画像に映っている特徴点について、対応する第2の画像が探索される。第3の画像に映っている特徴点に対応する第2の画像の対応点が探索されると、ステップST5で、第3の画像における特徴点の画像位置と第2の画像における対応点の画像位置とを基に、画像位置のずれ量が計測される。第3の画像に含まれる対象物の特徴点と第2の画像に含まれる対応点に関係付けされたステレオ測距対象物に対して、画像位置のずれ量により、三角測量の原理で距離が算出される。この処理は、ステップST6で画像処理が終了されるまで、次のタイミングで撮像された画像情報に対して同様に繰り返される。   Next, the distance estimation processing unit 43 extracts the feature points of the object included in the third image corresponding to the common area, recognizes the stereo distance measurement object related to the feature points, Processing for estimating the distance from the imaging position of the processing device to the stereo distance measurement object is performed. In step ST4, the feature point of the target object included in the third image is extracted, and the corresponding second image is searched for the feature point shown in the third image. When the corresponding point of the second image corresponding to the feature point shown in the third image is searched, in step ST5, the image position of the feature point in the third image and the image of the corresponding point in the second image The shift amount of the image position is measured based on the position. For a stereo ranging object related to the feature point of the object included in the third image and the corresponding point included in the second image, the distance is determined according to the principle of triangulation by the amount of image position deviation. Calculated. This process is repeated in the same manner for the image information captured at the next timing until the image process is completed in step ST6.

図6は、第1の画像及び第2の画像を示す説明図である。なお、第1の画像と第2の画像とを比較しやすくするため、一般的な可視光の白黒画像を用いて説明する。この図6において、車両から信号までの距離は仮に50m程度としている。図6(a)は、第1の撮像手段10で撮像された第1の画像及び第3の画像(F領域の画像)を示す説明図である。ここで、第1の画像は元々カラー画像であり、第3の画像は白黒の濃淡画像である。図6(b)は、第2の撮像手段20で撮像された第2の画像を示す説明図である。上述した補正処理が行われた後の画像イメージで示している。図6(a)においては、第2の画像との共通領域に対応して、第1の画像からF領域の画像を切り出す画像処理が行われている。車両前方の遠方にある信号は、第2の画像及び第3の画像に共通に含まれている。   FIG. 6 is an explanatory diagram showing a first image and a second image. In addition, in order to make it easy to compare the first image and the second image, a description will be given using a general visible light monochrome image. In FIG. 6, the distance from the vehicle to the signal is assumed to be about 50 m. FIG. 6A is an explanatory diagram showing a first image and a third image (F region image) captured by the first imaging means 10. Here, the first image is originally a color image, and the third image is a black and white grayscale image. FIG. 6B is an explanatory diagram showing a second image captured by the second imaging unit 20. An image after the above-described correction processing is shown. In FIG. 6A, image processing for cutting out the image of the F region from the first image is performed corresponding to the common region with the second image. A signal far away in front of the vehicle is commonly included in the second image and the third image.

図7は、第1の画像及び第2の画像を示す説明図である。図6と同様に、可視光の画像を用いて比較しやすくしている。この図7において、車両から信号までの距離は仮に15m程度としている。図7(a)は、第1の撮像手段10で撮像された第1の画像を示す説明図である。図7(b)は、第2の撮像手段20で撮像された第2の画像を示す説明図である。図7(a)では、車両前方の信号が第1の画像に含まれていることが分かる。しかし、図7(b)では、信号が第2の画像に含まれていない。つまり、図6にて表した信号までの距離が50mの場合では、第1の撮像手段10及び第2の撮像手段20の双方で信号の認識ができていたが、信号までの距離が15mまで近づいた図7においては、第1の撮像手段10のみでしか信号の認識を行うことができない。これは第1の撮像手段10の視野範囲が広いためであるが、画像処理装置1は、車両前方に近づいたときの信号等、視野範囲の周辺にある対象物を、第1の画像を用いることにより認識し続けることができる。   FIG. 7 is an explanatory diagram showing a first image and a second image. Similar to FIG. 6, a visible light image is used for easy comparison. In FIG. 7, the distance from the vehicle to the signal is assumed to be about 15 m. FIG. 7A is an explanatory diagram illustrating a first image captured by the first imaging unit 10. FIG. 7B is an explanatory diagram illustrating a second image captured by the second imaging unit 20. In Fig.7 (a), it turns out that the signal ahead of a vehicle is contained in the 1st image. However, in FIG. 7B, the signal is not included in the second image. That is, when the distance to the signal shown in FIG. 6 is 50 m, the signal can be recognized by both the first imaging means 10 and the second imaging means 20, but the distance to the signal is up to 15 m. In FIG. 7 that is approaching, the signal can be recognized only by the first imaging means 10 alone. This is because the visual field range of the first imaging means 10 is wide, but the image processing apparatus 1 uses the first image for objects around the visual field range, such as a signal when approaching the front of the vehicle. Can continue to recognize.

また、図6に示す信号のように第3の画像及び第2の画像に共通する対象物として認識され、左右画像における対象物の画像位置の相対的なずれ量が計測され、画像位置のずれ量により、距離が推定される。いったん、対象物として認識された特徴点は、第2の撮像手段20の視野範囲で撮像された第2の画像から逸脱した後も、視野範囲の広い第1の画像にて特徴点を認識し続けることができる。よって、抽出された対象物を継続追尾する。これにより、第2の撮像手段20の視野範囲から逸脱した後も、第1の画像にて特徴点の画像位置が経時変化する様子を基に対象物までの距離を推定できる。したがって、第2の画像及び第3の画像に含まれるステレオ測距対象物の情報を第1の画像上で関係付けすれば、車両前方の遠距離に位置する信号や標識を車両前方の近距離に近づいても認識し続けることができる。   6 is recognized as an object common to the third image and the second image as in the signal shown in FIG. 6, and the relative displacement amount of the image position of the object in the left and right images is measured, and the image position displacement is detected. The distance is estimated by the quantity. Once the feature point recognized as the target object deviates from the second image captured in the visual field range of the second imaging unit 20, the feature point is recognized in the first image having a wide visual field range. You can continue. Therefore, the extracted object is continuously tracked. Thereby, even after deviating from the visual field range of the second imaging means 20, it is possible to estimate the distance to the object based on how the image position of the feature point changes with time in the first image. Therefore, if the information of the stereo ranging object included in the second image and the third image is related on the first image, a signal or a sign located at a long distance in front of the vehicle is displayed at a short distance in front of the vehicle. You can continue to recognize even when approaching.

さらに、第1の撮像素子12がカラー撮影用の撮像素子なので、カラー画像である第1の画像によって、対象物の色特徴を検知することが可能である。この場合は、画像処理部42において、第1の画像に含まれる色特徴を検知して、色特徴に関係付けされた色特徴対象物として対象物を画像認識する処理が行われる。このため、第1の画像によって可視光での色特徴を抽出した対象物に対して、素早い認識ができる。第3の画像及び第2の画像の共通するステレオ測距対象物として認識された特徴点の色特徴を検知して、対象物を認識させ続けることができる。また、第1の画像によって可視光での色特徴に関係付けされた色特徴対象物に対して、第3の画像及び第2の画像の共通するステレオ測距対象物と同一であれば、該対象物までの距離を推定できる。   Furthermore, since the first image sensor 12 is an image sensor for color photography, it is possible to detect the color feature of the object from the first image that is a color image. In this case, the image processing unit 42 detects a color feature included in the first image, and performs a process of recognizing the object as a color feature object related to the color feature. For this reason, it is possible to quickly recognize an object whose color feature in visible light is extracted from the first image. The color feature of the feature point recognized as the stereo distance measurement object common to the third image and the second image can be detected and the object can be continuously recognized. In addition, if the color feature object related to the color feature in visible light by the first image is the same as the stereo distance measurement object common to the third image and the second image, The distance to the object can be estimated.

図7(a)で追尾された信号の色特徴を認識していれば、赤信号から青信号に変化したときに、色特徴の変化として認識して、表示用画像に色変化したことを出力したり、合図音を鳴らしたりすることができる。   If the color feature of the signal tracked in FIG. 7A is recognized, when the signal changes from a red signal to a blue signal, it is recognized as a change in the color feature, and the fact that the color has changed is output to the display image. Or sound a signal.

したがって、車両に搭載されて車両前方を撮像する画像処理装置1に好適である。画像処理装置1では、第1の撮像手段10と第2の撮像手段20とが車両前方を撮像するように搭載される。第1の画像が車両前方における第1の遠距離画像を含む近距離画像であって、第2の画像が車両前方における第2の遠距離画像であって、第2の画像に含まれるステレオ測距対象物の情報を第1の画像上で関係付けすることができる。第1の撮像素子12が広角レンズ11で焦点深度が相対的に深いので、第1の画像には遠方の対象物も撮像可能である。車両前方の近距離に位置する信号や標識を視野内に捉えているので、信号の自動認識や標識の自動認識が可能である。   Therefore, it is suitable for the image processing apparatus 1 that is mounted on a vehicle and images the front of the vehicle. In the image processing apparatus 1, the first imaging unit 10 and the second imaging unit 20 are mounted so as to image the front of the vehicle. The first image is a short-distance image including a first long-distance image in front of the vehicle, and the second image is a second long-distance image in front of the vehicle, and the stereo measurement included in the second image. Distance object information can be correlated on the first image. Since the first imaging element 12 is the wide-angle lens 11 and the depth of focus is relatively deep, a distant object can be imaged in the first image. Since signals and signs located at a short distance in front of the vehicle are captured within the field of view, automatic signal recognition and automatic sign recognition are possible.

また、1枚のカメラユニット基板に第1の撮像手段10と第2の撮像手段20とが配置されて組み込まれたカメラユニット30を、車両のフロントガラスを通して車両前方を撮像するように配置すれば、車両への取り付けが容易である。さらに、左右のカメラが別体の配置に比べて、第1の撮像手段10と第2の撮像手段20とが同一基板に配置されているので、車両に取り付ける前に光学的な調整を行っておくことが可能になる。したがって、取り付けが容易であるとともに、左右のカメラが別体の配置に比べて、取り付け後の光学的な校正が不要であるという効果を奏する。小型のカメラユニット30では、左右のレンズ間隔(基線長)は65mm程度にされた。一方、より遠距離での距離推定精度を確保したい場合は、横長にして、基線長を300mm程度にすればよい。   Further, if the camera unit 30 in which the first image pickup means 10 and the second image pickup means 20 are arranged and incorporated on one camera unit substrate is arranged so as to image the front of the vehicle through the windshield of the vehicle. Easy to attach to the vehicle. Furthermore, since the first imaging means 10 and the second imaging means 20 are arranged on the same substrate as compared with the arrangement where the left and right cameras are separated, optical adjustment is performed before being attached to the vehicle. It is possible to leave. Therefore, it is easy to mount, and there is an effect that the optical calibration after the mounting is unnecessary as compared with the arrangement of the left and right cameras separately. In the small camera unit 30, the distance between the left and right lenses (base line length) is set to about 65 mm. On the other hand, when it is desired to ensure the distance estimation accuracy at a longer distance, the base line length may be about 300 mm.

本実施形態では、第1の撮像手段10と第2の撮像手段20とは、それぞれ1つのレンズだけを用いるので、レンズは2つだけである。また、撮像素子の撮像面は、多数の画素の集合体であり、測定精度を向上させるためには、画素の数を増やす必要があるが、4つのレンズに対応する必要はない。撮像素子の画素数の増加は撮像面の大型化だけでなく、画素数に対応する電子情報処理量の増加やそれに必要な処理速度の高速化など、システム規模にも影響する。したがって、一対のステレオカメラに相当する画像を取得するだけの画像処理装置1は、撮像素子の画素数が最小限であり、システムとしても安価である。   In the present embodiment, each of the first imaging unit 10 and the second imaging unit 20 uses only one lens, so that there are only two lenses. Further, the imaging surface of the imaging device is an aggregate of a large number of pixels, and in order to improve measurement accuracy, it is necessary to increase the number of pixels, but it is not necessary to correspond to four lenses. The increase in the number of pixels of the imaging element affects not only the size of the imaging surface but also the system scale, such as an increase in the amount of electronic information processing corresponding to the number of pixels and an increase in the processing speed required for it. Therefore, the image processing apparatus 1 that only acquires an image corresponding to a pair of stereo cameras has a minimum number of pixels of the image sensor and is inexpensive as a system.

以下、本実施形態としたことによる効果について説明する。   Hereinafter, the effect by having set it as this embodiment is demonstrated.

第1の撮像手段10は可視光波長帯での第1の画像情報を撮像できる。第2の撮像手段20は、第1の撮像手段10の視野と共通領域を含む視野範囲を撮像可能で、赤外光波長帯での第2の画像情報を撮像できる。これにより、画像処理装置1は、第1の画像情報及び第2の画像情報を補正して第1の画像及び第2の画像を取得して、第1の画像によって対象物の色特徴を検知して、色特徴に関係付けされた色特徴対象物として対象物を画像認識する。また、第1の画像と第2の画像とを基に、ステレオ測距対象物として前記対象物を画像認識し、画像処理装置1の撮像位置から該ステレオ測距対象物までの距離を推定できる。よって、それぞれ1つのレンズを備えた一対の撮像手段によって、色特徴を含む画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定できるとともに、色特徴対象物を画像認識できる。したがって、2台のステレオカメラを用いることなく同等の画像処理が可能な画像処理装置とすることができる。   The first imaging means 10 can capture the first image information in the visible light wavelength band. The second image pickup unit 20 can pick up an image of the visual field range including the common field and the visual field of the first image pickup unit 10, and can pick up the second image information in the infrared wavelength band. Thereby, the image processing apparatus 1 corrects the first image information and the second image information to acquire the first image and the second image, and detects the color feature of the object by the first image. Then, the image of the object is recognized as the color feature object related to the color feature. Further, based on the first image and the second image, the object can be recognized as a stereo distance measurement object, and the distance from the imaging position of the image processing apparatus 1 to the stereo distance measurement object can be estimated. . Accordingly, an image including a color feature and an image as a stereo camera can be simultaneously acquired by a pair of imaging units each including a single lens, and the distance to the recognized stereo ranging object can be estimated. The feature object can be recognized as an image. Therefore, an image processing apparatus capable of performing equivalent image processing without using two stereo cameras can be provided.

以上の説明では、第1の撮像素子12が可視光フィルタを備えているカラー撮影用の撮像素子であるとしたが、実際には、近赤外光にも感度を有している撮像素子を用いて、第1の撮像手段10、近赤外光を集光可能とし、可視光と近赤外光とで第1の画像情報を撮像する In the above description , the first image pickup device 12 is a color image pickup device including a visible light filter. However, in practice, an image pickup device having sensitivity to near infrared light is used. used, the first image pickup means 10, to allow focusing the near-infrared light, to capture the first image information in the visible and near-infrared light.

第1の撮像素子12では、可視光フィルタに加えて、赤外光フィルタを用意して、可視光フィルタでは遮断される赤外光を撮像する画素を配置しておけばよい。図8は、可視光フィルタと赤外光フィルタの分光特性の説明図である。それぞれ、透過する波長が赤色の領域、緑色の領域、及び青色の領域のRGBフィルタと、波長が700nm以上の近赤外光を透過して、680nm以下の可視光を反射又は吸収するIRフィルタである。こうすれば、第1の撮像手段10は可視光及び近赤外光で第1の画像情報を撮像できる In the first image sensor 12, an infrared light filter may be prepared in addition to the visible light filter, and pixels for imaging infrared light blocked by the visible light filter may be arranged. FIG. 8 is an explanatory diagram of spectral characteristics of the visible light filter and the infrared light filter. An RGB filter with a wavelength of red, green, and blue, respectively, and an IR filter that transmits near infrared light with a wavelength of 700 nm or more and reflects or absorbs visible light with a wavelength of 680 nm or less. is there. By so doing, the first imaging means 10 can capture the first image information with visible light and near infrared light .

図9に可視光の画像例を示す。図10には図9と同時に撮影された近赤外光の画像例を示す。図9では遠方や側方の視野が暗く視認しにくい画像であるが、図10では遠方や側方の視野も明るく、「暗視」と呼んでいる画像が得られている。したがって、可視光の光量が少ない夜間やトンネル内であっても、赤外光で取得された画像で補うことができ、暗視のステレオ測距性能が向上する。   FIG. 9 shows an example of visible light images. FIG. 10 shows an example of near-infrared light imaged simultaneously with FIG. In FIG. 9, the far field and the lateral field of view are dark and difficult to visually recognize, but in FIG. 10, the far field and the lateral field of view are bright and an image called “night vision” is obtained. Therefore, even at night or in a tunnel where the amount of visible light is small, it can be supplemented with an image acquired with infrared light, and night vision stereo distance measurement performance is improved.

第2の撮像素子22は赤外光波長帯の画像を取得するための赤外フィルタを備え、赤外光に感度を有している。なお、赤外フィルタを用いず、全波長帯の感度をカットせずに画像を取得してもよいが、可視光波長帯の画像を含む場合には、赤外光波長帯の画像に特有のコントラストが得られなくなるので、使用目的に応じて赤外フィルタを備えるようにすることが好ましい。 The second image sensor 22 includes an infrared filter for acquiring an image in the infrared wavelength band, and has sensitivity to infrared light . Na us, without using an infrared filter, image may be obtained without cutting the sensitivity of the entire wavelength band, but if it contains an image of the visible light wavelength band, specific to the image of the infrared light wavelength range Therefore, it is preferable to provide an infrared filter according to the purpose of use.

第2の撮像素子22遠赤外光を検知する遠赤外撮像素子である。図11には、図9と同時に撮影された遠赤外光の画像例を示す。図9や図10に比べて、より遠方の視野が視認されやすくなっていることが分かる。また、第2の画像として遠赤外光での画像を取得すると、遠赤外光を発する人体も明るく視認されるので、夜間に人体を検知する感度が、さらに向上する。 Second image sensor 22 is a far-infrared imaging device for detecting a far-infrared light. FIG. 11 shows an example of far-infrared light imaged simultaneously with FIG. Compared to FIG. 9 and FIG. 10, it can be seen that a far field of view is easily visually recognized. Further, when an image with far-infrared light is acquired as the second image, the human body that emits far-infrared light is also viewed brightly, so that the sensitivity for detecting the human body at night is further improved.

なお、ステレオ測距に必要な画像情報に余分な周辺画像データを含まない画像処理であることから、処理速度が速いという副次的効果を奏する。   In addition, since it is an image process that does not include extra peripheral image data in the image information necessary for stereo distance measurement, there is a secondary effect that the processing speed is high.

画像処理装置1は車両に搭載する以外に、防犯用カメラや自走型ロボット等に使用することができる。   The image processing apparatus 1 can be used for a security camera, a self-propelled robot, or the like in addition to being mounted on a vehicle.

[第2実施形態]
本発明の第2実施形態における画像処理装置2について説明する。
[Second Embodiment]
An image processing apparatus 2 according to the second embodiment of the present invention will be described.

図12は、第2実施形態の画像処理装置2を備えた車両前方監視装置100のブロック図である。第1実施形態の画像処理装置1と共通するところは、同じ符号をつけて説明は省略する。   FIG. 12 is a block diagram of the vehicle front monitoring apparatus 100 including the image processing apparatus 2 of the second embodiment. The parts common to the image processing apparatus 1 of the first embodiment are given the same reference numerals and the description thereof is omitted.

第2実施形態において、画像処理装置2では、距離推定処理部43から表示用画像出力部44に表示用の情報を渡すことに加えて、推定された対象物までの距離をもって、乗員に前方情報を報知する車両制御用の情報を警告判定部70に渡している。   In the second embodiment, in the image processing apparatus 2, in addition to passing display information from the distance estimation processing unit 43 to the display image output unit 44, the front information is transmitted to the occupant with the estimated distance to the target object. Is sent to the warning determination unit 70.

警告判定部70では、距離推定処理部43で車両前方の対象物までの距離が推定された距離データと、表示用画像出力部44で認識された対象物の継続追尾データと、をもとに警告を行う判定がなされる。例えば、前方の先行車両や障害物に衝突する前に警告を発する警告手段71に警報を出力したり、危険回避操作手段72に危険回避操作として車両のブレーキを作動させたりする指令を出力したりする。   In the warning determination unit 70, the distance estimation processing unit 43 estimates the distance to the object ahead of the vehicle and the object continuous tracking data recognized by the display image output unit 44. A decision is made to issue a warning. For example, an alarm is output to the warning means 71 that issues a warning before colliding with a preceding vehicle in front or an obstacle, or a command for operating the brake of the vehicle as a risk avoidance operation is output to the risk avoidance operation means 72. To do.

なお、第1実施形態の画像処理装置1と同様に、表示用画像出力部44から、カーナビゲーション装置等の表示画面を利用した表示手段60に表示データを出力させてもよい。   Similar to the image processing device 1 of the first embodiment, the display data may be output from the display image output unit 44 to the display means 60 using a display screen such as a car navigation device.

以下、本実施形態としたことによる効果について説明する。   Hereinafter, the effect by having set it as this embodiment is demonstrated.

第1の撮像手段10は車両前方における可視光波長帯での第1の画像情報を撮像できる。第2の撮像手段20は第1の画像の視野と共通領域を含む視野範囲を撮像可能で、赤外光波長帯での第2の画像情報を撮像できる。これにより、画像処理装置2は、第1の画像情報及び第2の画像情報を補正して第1の画像及び第2の画像を取得して、第1の画像によって対象物の色特徴を検知して、色特徴に関係付けされた色特徴対象物として対象物を画像認識する。また、第1の画像と第2の画像とを基に、ステレオ測距対象物として前記対象物を画像認識し、画像処理装置2の撮像位置から該ステレオ測距対象物までの距離を推定できる。よって、それぞれ1つのレンズを備えた一対の撮像手段によって、色特徴を含む画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定できるとともに、色特徴対象物を画像認識できる。こうすれば、画像処理装置2を備えた車両前方監視装置100は、車両前方の遠距離に位置するステレオ測距対象物までの距離を推定して、衝突防止の警告やクルーズコントロールに利用することができる。また、色特徴対象物を画像認識することによって、信号の自動認識や標識の自動認識が可能となる。したがって、2台のステレオカメラを用いることなく同等の画像処理が可能な車両前方監視装置とすることができる。   The first imaging means 10 can capture the first image information in the visible light wavelength band in front of the vehicle. The second imaging means 20 can image the visual field range including the visual field of the first image and the common area, and can capture the second image information in the infrared light wavelength band. As a result, the image processing apparatus 2 corrects the first image information and the second image information to obtain the first image and the second image, and detects the color feature of the object by the first image. Then, the image of the object is recognized as the color feature object related to the color feature. Further, based on the first image and the second image, the object can be recognized as a stereo distance measurement object, and the distance from the imaging position of the image processing device 2 to the stereo distance measurement object can be estimated. . Accordingly, an image including a color feature and an image as a stereo camera can be simultaneously acquired by a pair of imaging units each including a single lens, and the distance to the recognized stereo ranging object can be estimated. The feature object can be recognized as an image. In this way, the vehicle forward monitoring device 100 including the image processing device 2 estimates the distance to the stereo distance measuring object located at a long distance in front of the vehicle, and uses it for a collision prevention warning and cruise control. Can do. Also, by recognizing the color feature object as an image, automatic signal recognition and automatic sign recognition are possible. Therefore, it is possible to provide a vehicle forward monitoring apparatus that can perform equivalent image processing without using two stereo cameras.

例えば、信号や標識を認識できるので、警告手段71で音声や警告を発する運転補助に利用することが可能である。また、運転者が赤信号や規制標識を認知していない場合に警告手段71での警告や危険回避操作手段72でのブレーキ操作ができる。   For example, since a signal or a sign can be recognized, the warning means 71 can be used for driving assistance that issues a voice or warning. Further, when the driver does not recognize the red light or the regulation sign, the warning by the warning means 71 and the brake operation by the danger avoiding operation means 72 can be performed.

さらに、第1の画像が視野範囲の広い近距離画像であれば、車線検知が可能であり、蛇行検知、警告、制御も可能である。よって、それぞれ1つのレンズを備えた一対の撮像手段によって、広い視野範囲の画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定でき、さらに、広い視野範囲の画像による警告、制御が可能である。   Further, if the first image is a short-distance image with a wide visual field range, lane detection is possible, and meandering detection, warning, and control are also possible. Therefore, it is possible to simultaneously acquire an image of a wide visual field range and an image as a stereo camera by a pair of imaging means each having one lens, and estimate the distance to the stereo distance measurement object recognized as an image, Warning and control with a wide field of view image is possible.

さらに、いったん、対象物として認識された特徴点は、第2の撮像手段20の視野範囲で撮像された第2の画像から逸脱した後も、視野範囲の広い第1の画像にて特徴点を認識し続けることができる。よって、抽出された対象物を、表示用画像出力部44に送られた表示用画像データの視野範囲で継続追尾することができる。   Further, once the feature point recognized as the target object deviates from the second image captured in the visual field range of the second imaging unit 20, the feature point is detected in the first image having a wide visual field range. Can continue to recognize. Therefore, the extracted object can be continuously tracked within the visual field range of the display image data sent to the display image output unit 44.

以上のように、本実施形態の画像処理装置2は、可視光波長帯での第1の画像と、第1の画像と共通領域を有する赤外光波長帯での第2の画像と、を取得する。これにより、この第2の画像と、第1の画像のうち第2の画像との共通領域に対応させて切り出された第3の画像と、のステレオ画像が取得できる。さらに、第2の画像及び第3の画像に含まれる対象物を特徴点の抽出によってステレオ測距対象物として認識でき、該ステレオ測距対象物までの距離を推定できる。また、第1の画像によって対象物の色特徴を検知して、色特徴に関係付けされた色特徴対象物として対象物を画像認識する。よって、2台のステレオカメラを用いることなく同等の画像処理が可能な車両前方監視装置とすることができる。   As described above, the image processing apparatus 2 according to the present embodiment includes the first image in the visible light wavelength band and the second image in the infrared light wavelength band having a common area with the first image. get. Thereby, the stereo image of this 2nd image and the 3rd image cut out corresponding to the common area | region with the 2nd image among 1st images can be acquired. Furthermore, the objects included in the second image and the third image can be recognized as a stereo distance measurement object by extracting feature points, and the distance to the stereo distance measurement object can be estimated. In addition, the color feature of the object is detected from the first image, and the object is recognized as a color feature object associated with the color feature. Therefore, it can be set as the vehicle front monitoring apparatus which can perform equivalent image processing, without using two stereo cameras.

したがって、一対の撮像手段によって、色特徴を含む画像と暗視画像とステレオカメラとしての画像とを同時に取得し、画像認識されたステレオ測距対象物までの距離が推定できるとともに、色特徴対象物を画像認識できる画像処理装置及び車両前方監視装置を提供することができる。   Therefore, a pair of imaging means can simultaneously acquire an image including color features, a night vision image, and an image as a stereo camera to estimate the distance to the recognized stereo distance measurement object, and the color feature object. It is possible to provide an image processing device and a vehicle front monitoring device that can recognize the image of the vehicle.

本発明は上記の実施形態に限定されるものではなく、要旨を逸脱しない範囲で種々変更して実施することが可能である。例えば次のように変形して実施することができ、これらの実施形態も本発明の技術的範囲に属する。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention. For example, the present invention can be modified as follows, and these embodiments also belong to the technical scope of the present invention.

画像処理装置に無線通信手段を設けて、表示手段60を有する遠隔操作装置に無線通信するようにしてもよい。   Wireless communication means may be provided in the image processing apparatus so as to perform wireless communication with a remote control device having the display means 60.

あるいは、画像処理装置に表示手段60が一体に設けられていてもよい。   Alternatively, the display unit 60 may be integrally provided in the image processing apparatus.

1、2 画像処理装置
10 第1の撮像手段
11 広角レンズ
12 第1の撮像素子
20 第2の撮像手段
21 望遠レンズ
22 第2の撮像素子
30 カメラユニット
31 画像出力部
40 画像認識手段(画像認識ユニット)
41 画像入力部
42 画像処理部
43 距離推定処理部
44 表示用画像出力部
45 座標変換表記憶部
50 制御手段
60 表示手段
70 警告判定部
71 警告手段
72 危険回避操作手段
100 車両前方監視装置
DESCRIPTION OF SYMBOLS 1, 2 Image processing apparatus 10 1st imaging means 11 Wide angle lens 12 1st imaging device 20 2nd imaging means 21 Telephoto lens 22 2nd imaging device 30 Camera unit 31 Image output part 40 Image recognition means (image recognition) unit)
DESCRIPTION OF SYMBOLS 41 Image input part 42 Image processing part 43 Distance estimation process part 44 Display image output part 45 Coordinate conversion table memory | storage part 50 Control means 60 Display means 70 Warning determination part 71 Warning means 72 Risk avoidance operation means 100 Vehicle forward monitoring apparatus

Claims (4)

相対的に画角が広いレンズを介して集光した可視光及び近赤外光を受光することで、車両前方を可視光及び近赤外光で撮像可能な第1の撮像手段と、
相対的に画角が狭いレンズを介して集光した遠赤外光を受光することで、同じく車両前方において、前記第1の撮像手段の視野と共通領域を含む視野範囲を遠赤外光で撮像可能な第2の撮像手段と、
前記第1の撮像手段によって撮像された第1の画像情報及び前記第2の撮像手段によって撮像された第2の画像情報を基に、対象物を認識する画像認識手段と、を有し、
前記画像認識手段は、前記第1の画像情報を補正して第1の画像、及び、前記第2の画像情報を補正して第2の画像、を取得し、さらに前記第1の画像から前記第2の画像との共通領域に対応する白黒の第3の画像を切り出し、前記第1の画像によって前記対象物の色特徴を検知して、前記色特徴に関係付けされた色特徴対象物として前記対象物を画像認識する処理が行われる画像処理部と、
前記第3の画像に含まれる前記対象物の特徴点を抽出し、ステレオ測距対象物として前記対象物を画像認識し、前記特徴点に対応する対応点を前記第2の画像から探し、前記第3の画像の特徴点と前記第2の画像の対応点から前記対象物までの距離を推定する処理が行われる距離推定処理部と、を備え、
抽出された前記特徴点が前記第2および第3の画像の範囲から外れた後も、前記第1の画像において前記色特徴対象物として前記対象物を認識し続け、必要に応じて車両の乗員に前記対象物の情報を通知することを特徴とする画像処理装置。
A first imaging unit capable of imaging the front of the vehicle with visible light and near infrared light by receiving visible light and near infrared light collected through a lens having a relatively wide angle of view ;
By receiving far-infrared light collected through a lens having a relatively narrow angle of view, the field-of-view range including the field of view of the first imaging means and the common area is also far-infrared light in the front of the vehicle. A second imaging means capable of imaging;
Based on the second image information captured by the first image information and said second image pickup means which is captured by the first imaging means includes an image recognition means for recognizing an object, a,
The image recognition means corrects the first image information to obtain a first image, and corrects the second image information to obtain a second image. Further, from the first image, the image recognition means A black and white third image corresponding to a common area with the second image is cut out, a color feature of the object is detected from the first image, and a color feature object related to the color feature is detected. An image processing unit in which processing for recognizing the object is performed;
Extracting a feature point of the object included in the third image, recognizing the object as a stereo ranging object, searching for a corresponding point corresponding to the feature point from the second image, A distance estimation processing unit that performs a process of estimating the distance from the feature point of the third image and the corresponding point of the second image to the object,
Even after the extracted feature point is out of the range of the second and third images, the object continues to be recognized as the color feature object in the first image, and if necessary, a vehicle occupant An image processing apparatus characterized by notifying information of the object.
前記第1の撮像手段と前記第2の撮像手段とが同一基板に配置されていることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first imaging unit and the second imaging unit are arranged on the same substrate. 前記画像処理部は、あらかじめ座標変換表が記憶されている座標変換表記憶部を有し、
前記画像処理部において、前記第1の画像情報及び前記第2の画像情報に対して、前記座標変換表を用いた平行化処理が行われていることを特徴とする請求項1に記載の画像処理装置。
The image processing unit has a coordinate conversion table storage unit in which a coordinate conversion table is stored in advance,
2. The image according to claim 1, wherein a parallelization process using the coordinate conversion table is performed on the first image information and the second image information in the image processing unit. Processing equipment.
車両に請求項1ないし請求項3のいずれかに記載の画像処理装置を備えた車両前方監視装置であり、前記画像処理装置によって推定された前記対象物までの距離、または、画像認識された前記色特徴対象物、をもって、乗員に前方情報を報知する車両前方監視装置。   A vehicle forward monitoring device comprising the image processing device according to any one of claims 1 to 3 in a vehicle, wherein the distance to the object estimated by the image processing device or the image recognized A vehicle forward monitoring device that informs passengers of forward information with a color feature object.
JP2014539827A 2012-10-04 2013-10-03 Image processing apparatus and vehicle forward monitoring apparatus Expired - Fee Related JP5951785B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012221832 2012-10-04
JP2012221832 2012-10-04
PCT/JP2013/076979 WO2014054752A1 (en) 2012-10-04 2013-10-03 Image processing device and device for monitoring area in front of vehicle

Publications (2)

Publication Number Publication Date
JP5951785B2 true JP5951785B2 (en) 2016-07-13
JPWO2014054752A1 JPWO2014054752A1 (en) 2016-08-25

Family

ID=50435071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014539827A Expired - Fee Related JP5951785B2 (en) 2012-10-04 2013-10-03 Image processing apparatus and vehicle forward monitoring apparatus

Country Status (2)

Country Link
JP (1) JP5951785B2 (en)
WO (1) WO2014054752A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9898670B2 (en) 2013-12-13 2018-02-20 Fts Computertechnik Gmbh Method and device for observing the environment of a vehicle
WO2015182771A1 (en) * 2014-05-30 2015-12-03 日本電産エレシス株式会社 Image capturing device, image processing device, image processing method, and computer program
CN105807541B (en) * 2014-12-30 2019-01-15 联想(北京)有限公司 Imaging method and imaging device
JP2016158186A (en) * 2015-02-26 2016-09-01 カシオ計算機株式会社 Imaging device, imaging method, imaging program
JP6677474B2 (en) * 2015-09-29 2020-04-08 日立オートモティブシステムズ株式会社 Perimeter recognition device
US10017156B2 (en) * 2016-08-30 2018-07-10 Nzube Etonye Vehicle security system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007506074A (en) * 2003-09-19 2007-03-15 ダイムラークライスラー・アクチェンゲゼルシャフト Measuring the distance to an object
JP2007139564A (en) * 2005-11-17 2007-06-07 Sumitomo Electric Ind Ltd Obstacle detection system, obstacle detection method and computer program
JP2008116309A (en) * 2006-11-02 2008-05-22 Fujifilm Corp Method and apparatus for generating range image
JP2009139995A (en) * 2007-12-03 2009-06-25 National Institute Of Information & Communication Technology Unit and program for real time pixel matching in stereo image pair
JP2009146217A (en) * 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device
JP2010086268A (en) * 2008-09-30 2010-04-15 Mazda Motor Corp Display object recognition device for vehicle
JP2011013064A (en) * 2009-07-01 2011-01-20 Nikon Corp Position detection device
JP2011203238A (en) * 2010-03-01 2011-10-13 Ricoh Co Ltd Image pickup device and distance measuring device
JP2012032349A (en) * 2010-08-03 2012-02-16 Alps Electric Co Ltd Stereo camera system and vehicle equipped with the system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4198536B2 (en) * 2003-06-09 2008-12-17 富士通株式会社 Object photographing apparatus, object photographing method and object photographing program
JP4815488B2 (en) * 2008-12-22 2011-11-16 本田技研工業株式会社 Vehicle periphery monitoring device
JP2013156109A (en) * 2012-01-30 2013-08-15 Hitachi Ltd Distance measurement device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007506074A (en) * 2003-09-19 2007-03-15 ダイムラークライスラー・アクチェンゲゼルシャフト Measuring the distance to an object
JP2007139564A (en) * 2005-11-17 2007-06-07 Sumitomo Electric Ind Ltd Obstacle detection system, obstacle detection method and computer program
JP2008116309A (en) * 2006-11-02 2008-05-22 Fujifilm Corp Method and apparatus for generating range image
JP2009139995A (en) * 2007-12-03 2009-06-25 National Institute Of Information & Communication Technology Unit and program for real time pixel matching in stereo image pair
JP2009146217A (en) * 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device
JP2010086268A (en) * 2008-09-30 2010-04-15 Mazda Motor Corp Display object recognition device for vehicle
JP2011013064A (en) * 2009-07-01 2011-01-20 Nikon Corp Position detection device
JP2011203238A (en) * 2010-03-01 2011-10-13 Ricoh Co Ltd Image pickup device and distance measuring device
JP2012032349A (en) * 2010-08-03 2012-02-16 Alps Electric Co Ltd Stereo camera system and vehicle equipped with the system

Also Published As

Publication number Publication date
WO2014054752A1 (en) 2014-04-10
JPWO2014054752A1 (en) 2016-08-25

Similar Documents

Publication Publication Date Title
WO2014054753A1 (en) Image processing device and device for monitoring area in front of vehicle
US10255509B2 (en) Adaptive lane marker detection for a vehicular vision system
US11270134B2 (en) Method for estimating distance to an object via a vehicular vision system
JP5951785B2 (en) Image processing apparatus and vehicle forward monitoring apparatus
US11535154B2 (en) Method for calibrating a vehicular vision system
US6812831B2 (en) Vehicle surroundings monitoring apparatus
US20170017848A1 (en) Vehicle parking assist system with vision-based parking space detection
US20080198226A1 (en) Image Processing Device
US20070069872A1 (en) Vehicle driving assist system
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
US10848660B2 (en) Imaging apparatus, imaging module, and control method of imaging apparatus
EP2770478B1 (en) Image processing unit, imaging device, and vehicle control system and program
JP6471522B2 (en) Camera parameter adjustment device
US10992920B2 (en) Stereo image processing device
US20210046870A1 (en) Image processing apparatus, imaging apparatus, driving assistance apparatus, mobile body, and image processing method
JP2014026396A (en) Movable surface boundary line recognition device, movable body having movable surface boundary line recognition device, movable surface boundary line recognition method, and movable surface boundary line recognition program
KR102177878B1 (en) Apparatus and method for processing image
JP2006178652A (en) Vehicle environment recognition system and image processor
JP2005242914A (en) Human recognition system and image processor
JP4900377B2 (en) Image processing device
JP2010148058A (en) Device and method for driving support
JP2023052713A (en) Imaging device, imaging system, and imaging method
JP6718295B2 (en) Surrounding monitoring device and surrounding monitoring method
JP2006191210A (en) Vehicle circumference recognition system and image processor
US20230394847A1 (en) Image processing system, image processing method, and storage medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160608

R150 Certificate of patent or registration of utility model

Ref document number: 5951785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees