JP2009276906A - Travelling information providing device - Google Patents

Travelling information providing device Download PDF

Info

Publication number
JP2009276906A
JP2009276906A JP2008126038A JP2008126038A JP2009276906A JP 2009276906 A JP2009276906 A JP 2009276906A JP 2008126038 A JP2008126038 A JP 2008126038A JP 2008126038 A JP2008126038 A JP 2008126038A JP 2009276906 A JP2009276906 A JP 2009276906A
Authority
JP
Japan
Prior art keywords
image
parallax value
pixel
image candidate
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008126038A
Other languages
Japanese (ja)
Inventor
Koji Shin
浩治 新
Tatsuyuki Negishi
辰行 根岸
Osamu Miyawaki
治 宮脇
Takuya Nanri
卓也 南里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008126038A priority Critical patent/JP2009276906A/en
Publication of JP2009276906A publication Critical patent/JP2009276906A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a travelling information providing device for accurately and quickly detecting an object which suddenly appears just before a travelling vehicle to secure the safety of the travelling vehicle. <P>SOLUTION: In a drive support device 100, an inadequate parallax pixel area specifying unit 114 specifies an inadequate parallax pixel area including a pixel incapable of calculating a parallax value within a predetermined time period and a pixel obtaining a parallax value exceeding an upper limit value, an adjacent object image candidate specifying unit 115 specifies an overlap pixel area in which the inadequate parallax pixel area overlaps with an adjacent object correspondence pixel area and specifies an adjacent object image candidate on the basis of the overlap pixel area, an evocation/control unit 120 evokes the safety confirmation or controls a drive state of its own vehicle on the basis of the predetermined adjacent object image candidate. Thus, the device utilizes information (information at one timing point) of a pixel capable of obtaining an inadequate parallax value which has not been used and has been discarded to detect an object, so that the device may accurately and quickly detect the object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ステレオ画像から求められる視差情報を利用した走行情報提供装置に関する。   The present invention relates to a travel information providing apparatus using parallax information obtained from a stereo image.

近年、自動車の安全性向上のために、前方の車両等の障害物を検知し、当該障害物との衝突の危険を運転者に警告する技術が開発されている。このような技術では、自車両にとって衝突する危険性のある障害物を検出するために、カメラ、レーダ等の車載センサが用いられる。   In recent years, in order to improve the safety of automobiles, techniques have been developed to detect obstacles such as vehicles ahead and warn the driver of the danger of collision with the obstacles. In such a technique, in-vehicle sensors such as a camera and a radar are used in order to detect an obstacle that may collide with the host vehicle.

車載のセンサとして、複数のカメラからなるステレオカメラが用いられる場合がある。各カメラで撮影された画像において、同じ物体の像が現れる位置を特定して(この処理をステレオマッチングと呼ぶことがある)、その位置のずれである視差値を算出する。この視差は、撮像位置(つまり、カメラの配置)の違いから生じる。   As a vehicle-mounted sensor, a stereo camera including a plurality of cameras may be used. In an image taken by each camera, a position where the same object image appears is specified (this process may be referred to as stereo matching), and a parallax value that is a deviation of the position is calculated. This parallax is caused by a difference in imaging position (that is, camera arrangement).

一般的に、算出された視差値は、三角測量法によって、自車両から被撮像物体までの距離に換算される。このようにして得られた視差情報または距離情報を利用して、物体検出処理が実施される。具体的には、例えば、略同一の視差値が集合している部分を物体の像として抽出する方法等で、物体検出が行われる。更に、時系列的に撮影された複数の画像において、この物体検出を行い、複数画像における同一物体像の位置を追跡することで、自車両にとって危険な障害物かどうかの判定が可能となる。そして、危険な障害物が存在する場合には、運転者への警告を行うことが可能となる。   In general, the calculated parallax value is converted into a distance from the own vehicle to the object to be imaged by a triangulation method. Object detection processing is performed using the parallax information or distance information obtained in this way. Specifically, for example, object detection is performed by a method of extracting a part where substantially the same parallax values are collected as an object image. Furthermore, by detecting this object in a plurality of images taken in time series and tracking the position of the same object image in the plurality of images, it is possible to determine whether the obstacle is dangerous for the host vehicle. And when a dangerous obstacle exists, it becomes possible to warn a driver.

また特許文献1にも、この視差を用いて物体を検出する技術が開示されている。   Patent Document 1 also discloses a technique for detecting an object using this parallax.

特許文献1に開示されている車外監視装置は、車外の対象をステレオ撮像した、2枚の画像間のシティブロック距離を計算して距離情報を出力する距離検出回路を備え、この距離検出回路からの距離情報に基づいて車外の状況を認識するものであり、上記距離検出回路からの距離情報に基づく今回の立体物の検出結果と前回の立体物の検出結果とを照合し、上記距離検出回路の検出可能限界距離より近くに立体物が存在するか否かを判定し、上記距離検出回路の検出可能限界距離より近くに立体物が存在すると判定されたとき、一方の撮像画像に設定した領域に対応する部分を他方の撮像画像から探索して視差を求め、この視差から上記距離検出回路の検出可能限界距離より近くに存在する立体物までの距離を算出する至近距離算出プログラムを実行する。
特開2000−207695号公報
A vehicle exterior monitoring device disclosed in Patent Document 1 includes a distance detection circuit that calculates a city block distance between two images obtained by stereo imaging of an object outside the vehicle and outputs distance information. The distance detection circuit recognizes the situation outside the vehicle based on the distance information of the vehicle, collates the detection result of the current three-dimensional object based on the distance information from the distance detection circuit, and the detection result of the previous three-dimensional object, and It is determined whether or not a three-dimensional object exists near the detectable limit distance, and when it is determined that a three-dimensional object exists near the detectable limit distance of the distance detection circuit, the area set in one captured image A distance calculation program that calculates a distance to a three-dimensional object that is closer than the detectable limit distance of the distance detection circuit from the parallax by searching for the part corresponding to the other captured image from the other captured image To run.
JP 2000-207695 A

しかしながら、上記したように視差値又は当該視差値を換算した距離情報のみを用いて物体検出する方法には、限界がある。すなわち、カメラ等の撮像部と、被撮像物体との距離がある限界距離より近くなると、正確な視差値を得ることができない。   However, as described above, there is a limit to the method of detecting an object using only the parallax value or the distance information obtained by converting the parallax value. That is, when the distance between the imaging unit such as a camera and the object to be captured is closer than a certain limit distance, an accurate parallax value cannot be obtained.

この問題に対して、上記した特許文献1では距離検出回路の検出可能限界距離より近い位置に存在する物体までの距離を至近距離算出プログラムで算出している。   In order to solve this problem, in Patent Document 1 described above, the distance to an object existing at a position closer to the detectable limit distance of the distance detection circuit is calculated by the closest distance calculation program.

しかしながら、特許文献1に開示された技術では、被撮影エリア(つまり、カメラ視野内)に突然現れる物体を検出することはできない。これは、至近距離に物体が存在するか否かの判断に異なる2つのタイミングにおける検出結果を用いるので、その判断時から遠いタイミングの検出結果に、突然現れた物体が反映されていない可能性が高いからである。   However, the technique disclosed in Patent Document 1 cannot detect an object that suddenly appears in the shooting area (that is, in the camera field of view). This is because the detection results at two different timings are used to determine whether or not an object is present at a close distance, so that there is a possibility that an object that appears suddenly is not reflected in the detection results at a timing far from the determination time. Because it is expensive.

また、最終的に検出物体に対する注意を運転者に喚起する場合、できるだけ早く喚起することが望まれるため、実際上、物体検出に掛けることができる時間は制限される。そのため、距離を算出できることを前提としている上記従来技術では、その制限時間内に視差値又は当該視差値に対応する距離情報を算出できないことが十分に考えられる。   In addition, when the driver is finally alerted to the detected object, it is desired to alert the driver as soon as possible, so that the time that can be spent on the object detection is actually limited. For this reason, it is fully conceivable that the above-described conventional technology that assumes that the distance can be calculated cannot calculate the parallax value or the distance information corresponding to the parallax value within the time limit.

このように従来技術では、特に被撮影エリアに突然現れるような物体を精度良く且つ迅速に検出できず、その結果、物体検出装置が搭載される走行車両の安全性を十分に確保できない問題がある。   As described above, the conventional technique cannot detect an object that appears suddenly in the shooting area with high accuracy and speed, and as a result, cannot sufficiently secure the safety of the traveling vehicle on which the object detection device is mounted. .

本発明は、かかる点に鑑みてなされたものであり、走行車両の直前に突然現れる物体であってもより精度良く且つ迅速に検出して、走行車両の安全性を確保する走行情報提供装置を提供することを目的とする。   The present invention has been made in view of the above points, and provides a travel information providing device that can detect even an object suddenly appearing immediately before a traveling vehicle more accurately and quickly and ensure the safety of the traveling vehicle. The purpose is to provide.

本発明の走行情報提供装置は、搭載される自車両に配設された第1のカメラ及び第2のカメラで撮影された基準画像及び比較画像を取得するステレオ画像取得手段と、前記基準画像及び前記比較画像を用いてステレオマッチング処理を行うことにより、前記基準画像を構成する画素ごとに前記比較画像との視差値を算出する視差値算出手段と、前記視差値算出手段で得られた算出結果に基づいて、前記視差値を所定時間内に算出できない画素及び上限値を超える視差値が得られる画素を含む不適視差値画素領域を特定する特定手段と、前記第1及び第2のカメラの近傍に存在する被撮影物体の画像が現れる画素群からなる近傍物体対応画素領域に関する情報を記憶する記憶手段と、前記不適視差値画素領域と前記近傍物体対応画素領域とのオーバラップ画素領域を特定し、当該オーバラップ画素領域に基づいて近傍物体画像候補を特定する近傍物体画像候補特定手段と、前記特定された近傍物体画像候補に基づいて、安全確認の喚起又は自車両の運転状態の制御を行う喚起・制御手段と、を具備する構成を採る。   The travel information providing apparatus according to the present invention includes a stereo image acquisition unit that acquires a reference image and a comparison image captured by a first camera and a second camera disposed in a host vehicle mounted thereon, the reference image, A parallax value calculation unit that calculates a parallax value with the comparison image for each pixel constituting the reference image by performing a stereo matching process using the comparison image, and a calculation result obtained by the parallax value calculation unit And means for specifying an inappropriate parallax value pixel area including a pixel for which the parallax value cannot be calculated within a predetermined time and a pixel from which a parallax value exceeding an upper limit value is obtained, and the vicinity of the first and second cameras Storage means for storing information relating to a neighboring object corresponding pixel area consisting of a group of pixels in which an image of an object to be photographed that is present in an object, and an offset between the inappropriate parallax value pixel area and the neighboring object corresponding pixel area A neighboring object image candidate identifying unit that identifies a barrier pixel region and identifies a nearby object image candidate based on the overlap pixel region, and a safety confirmation alert or a vehicle's vehicle based on the identified nearby object image candidate. A structure including arousing / controlling means for controlling the driving state is adopted.

本発明によれば、走行車両の直前に突然現れる物体であってもより精度良く且つ迅速に検出して、走行車両の安全性を確保する走行情報提供装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, even if it is an object which appears suddenly just before a traveling vehicle, it can detect more accurately and rapidly, and the traveling information provision apparatus which ensures the safety of a traveling vehicle can be provided.

以下、本発明の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態では、走行情報提供装置を、運転手に、衝突の危険性のある、回避対象物体の出現を走行情報として提供することで運転を支援する運転支援装置として説明する。実施の形態において、同一の構成要素には同一の符号を付し、その説明は重複するので省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, the driving information providing device will be described as a driving support device that supports driving by providing the driver with the appearance of an avoidance target object that has a risk of collision as driving information. In the embodiments, the same components are denoted by the same reference numerals, and the description thereof will be omitted because it is redundant.

(実施の形態1)
図1は、本発明の実施の形態1における運転支援装置(走行情報提供装置)100の構成を示すブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a driving support device (running information providing device) 100 according to Embodiment 1 of the present invention.

図1において運転支援装置100は、ここでは車両に搭載されるものであり、物体検出装置110と、喚起・制御部120と、情報提示部130とを有する。   In FIG. 1, the driving support device 100 is mounted on a vehicle here, and includes an object detection device 110, an awakening / control unit 120, and an information presentation unit 130.

物体検出装置110は、車両に配設された複数のカメラで撮影された複数の画像情報(以下、「ステレオ画像情報」と呼ぶことがある)を取得する。各画像情報は、それぞれが画素(ピクセル)と対応する画素データ群で構成されている。   The object detection device 110 acquires a plurality of pieces of image information (hereinafter also referred to as “stereo image information”) taken by a plurality of cameras disposed in the vehicle. Each piece of image information is composed of pixel data groups each corresponding to a pixel (pixel).

物体検出装置110は、取得したステレオ画像情報を用いて画素ごとの視差値を算出する。そして物体検出装置110は、算出された視差値データ群のうち、所定の視差値範囲(以下、「適正視差値範囲」と呼ぶことがある)に含まれる適正視差値データ群を用いて、車両前方に存在する物体を検出する。   The object detection device 110 calculates a parallax value for each pixel using the acquired stereo image information. Then, the object detection device 110 uses the appropriate parallax value data group included in a predetermined parallax value range (hereinafter sometimes referred to as “appropriate parallax value range”) among the calculated parallax value data groups, An object existing in front is detected.

更に、物体検出装置110は、適正視差値範囲から外れる視差値(つまり、略ゼロの視差値、視差値の信憑性が確保される上限値を超える視差値)を持つ画素及び所定の期間内で視差値を算出することができなかった画素から構成される不適視差値画素領域に基づいて、車両直前に存在する衝突回避対象物体を検出する。   Furthermore, the object detection device 110 includes a pixel having a parallax value that is out of the appropriate parallax value range (that is, a parallax value that is substantially zero and a parallax value that exceeds an upper limit value that ensures the reliability of the parallax value) and a predetermined period. Based on an inappropriate parallax value pixel area composed of pixels for which a parallax value could not be calculated, a collision avoidance target object existing immediately before the vehicle is detected.

ここでは物体検出装置110は、画像取得部111と、視差情報生成部112と、遠方物体検出部113と、不適視差値画素領域特定部114と、近傍物体画像候補特定部115と、近傍物体対応領域記憶部116を有している。   Here, the object detection device 110 includes an image acquisition unit 111, a parallax information generation unit 112, a distant object detection unit 113, an inappropriate parallax value pixel region specification unit 114, a near object image candidate specification unit 115, and a near object correspondence. An area storage unit 116 is included.

画像取得部111は、車両の左右に前方へ向けて配設された2つのカメラ(以下、「ステレオカメラ」と呼ぶことがある)で撮影されたステレオ画像情報を取得する。なお、ここでは説明を簡単にするために、設置カメラの数を2つとして説明するが、2つ以上であればその数は特に限定されるものではない。   The image acquisition unit 111 acquires stereo image information captured by two cameras (hereinafter, sometimes referred to as “stereo cameras”) disposed on the left and right sides of the vehicle. Here, for simplicity of explanation, the number of installed cameras is two, but the number is not particularly limited as long as it is two or more.

取得されたステレオ画像情報には、2つのカメラで同時刻に撮影された、2つの画像情報が含まれている。一のカメラで撮影された画像情報が「基準画像」の情報であり、他のカメラで撮影された画像情報が「比較画像」の情報である。基準画像の一部の領域は、比較画像に含まれている。すなわち、基準画像と比較画像とは、一部がオーバラップしている。   The acquired stereo image information includes two pieces of image information taken by two cameras at the same time. Image information photographed by one camera is “reference image” information, and image information photographed by another camera is “comparative image” information. A part of the reference image is included in the comparison image. That is, the reference image and the comparison image partially overlap.

画像取得部111は、取得した基準画像情報及び比較画像情報を視差情報生成部112に送出する。なお、所定期間内に取得したステレオ画像を、画像取得部111が基準画像と比較画像とで別々に平行化処理し、得られた情報を基準画像情報及び比較画像情報として視差情報生成部112に送出してもよい。この平行化処理については、後に詳述する。   The image acquisition unit 111 sends the acquired reference image information and comparison image information to the parallax information generation unit 112. Note that the stereo image acquired within the predetermined period is parallelized by the image acquisition unit 111 separately for the reference image and the comparison image, and the obtained information is used as the reference image information and the comparison image information to the parallax information generation unit 112. It may be sent out. This parallelization process will be described in detail later.

視差情報生成部112は、基準画像及び比較画像を用いてステレオマッチング処理を行うことにより、画素ごとに基準画像と比較画像との視差値を算出する。ステレオマッチング処理では、まず、基準画像における任意点(基準点)に対応する比較画像における対応点が特定される。すなわち、基準画像の画素データ(以下、「基準画素データ」と呼ぶことがある)と対応する比較画像における画素データ(以下、「対応比較画素データ」と呼ぶことがある)が、画素ごとに特定される。   The disparity information generation unit 112 calculates a disparity value between the reference image and the comparison image for each pixel by performing a stereo matching process using the reference image and the comparison image. In the stereo matching process, first, a corresponding point in the comparison image corresponding to an arbitrary point (reference point) in the reference image is specified. In other words, pixel data in a comparison image (hereinafter also referred to as “corresponding comparison pixel data”) corresponding to pixel data of the reference image (hereinafter also referred to as “reference pixel data”) is specified for each pixel. Is done.

そして、基準画像の全体と比較画像の全体とを重ね合わせたときに、基準点と対応点との間に生じる距離が、視差値として算出される。すなわち、基準画素データの画素と対応比較画像データの画素との間に生じる距離が、視差値として算出される。   Then, when the entire reference image and the entire comparison image are overlaid, a distance generated between the reference point and the corresponding point is calculated as a parallax value. That is, the distance generated between the pixel of the reference pixel data and the pixel of the corresponding comparison image data is calculated as the parallax value.

遠方物体検出部113は、適正視差値範囲に含まれる適正視差値データ群を用いて、車両前方に存在する物体を検出する。具体的には、遠方物体検出部113は、適正視差値範囲に含まれる適正視差値データ群から、視差値が略等しい視差値データを抽出する。これにより、物体画像候補ごとに視差値データをグルーピングすることができる。これは、同一物体の画像が存在する画素における視差値が略等しいという性質を利用している。   The far object detection unit 113 detects an object existing in front of the vehicle by using the appropriate parallax value data group included in the appropriate parallax value range. Specifically, the distant object detection unit 113 extracts disparity value data having substantially the same disparity value from the appropriate disparity value data group included in the appropriate disparity value range. Thereby, parallax value data can be grouped for every object image candidate. This utilizes the property that the parallax values of pixels in which an image of the same object exists are substantially equal.

不適視差値画素領域特定部114は、適正視差値範囲から外れる視差値(つまり、略ゼロの視差値、視差値の信憑性が確保される上限値を超える視差値)を持つ画素及び所定の期間内で視差値を算出することができなかった画素を特定する。これにより、不適視差値画素領域が特定される。   The inappropriate parallax value pixel area specifying unit 114 includes a pixel having a parallax value that is out of the proper parallax value range (that is, a parallax value that is substantially zero and a parallax value that exceeds an upper limit value that ensures the reliability of the parallax value) and a predetermined period. The pixel for which the parallax value could not be calculated is identified. Thereby, an inappropriate parallax value pixel region is specified.

近傍物体画像候補特定部115は、不適視差値画素領域と近傍物体対応領域とに基づいて、車両直前に存在する衝突回避対象物体の画像候補を特定する。近傍物体対応領域とは、カメラの近傍に存在する被撮像物体の画像が現れる画素群からなる領域である。この近傍物体対応領域に関する情報は、近傍物体対応領域記憶部116に記憶されている。   The near object image candidate specifying unit 115 specifies the image candidate of the collision avoidance target object existing immediately before the vehicle based on the inappropriate parallax value pixel area and the near object corresponding area. The near object corresponding area is an area composed of a pixel group in which an image of an imaged object existing in the vicinity of the camera appears. Information on the near object corresponding area is stored in the near object corresponding area storage unit 116.

具体的には、近傍物体画像候補特定部115は、不適視差値画素領域と近傍物体対応領域とのオーバラップ部分に対応する画素識別データ、及びこれに対応する視差値データを抽出する。ここで不適視差値画素領域と近傍物体対応領域とのオーバラップ部分は、自車両の近傍に存在する被撮像物体の画像を写した画素である可能性が高い。すなわち、不適視差値画素領域には、被撮像物体までの距離が近すぎるために算出視差値が不適切な値となった画素が含まれるため、その不適視差値画素領域と近傍物体対応領域とのオーバラップ部分は、衝突回避対象物体の画像候補として利用することができる。   Specifically, the neighboring object image candidate specifying unit 115 extracts pixel identification data corresponding to an overlap portion between the inappropriate parallax value pixel area and the neighboring object corresponding area, and parallax value data corresponding thereto. Here, there is a high possibility that the overlap portion between the inappropriate parallax value pixel region and the nearby object corresponding region is a pixel obtained by copying an image of the imaged object existing in the vicinity of the host vehicle. That is, the inappropriate parallax value pixel area includes pixels whose calculated parallax values are inappropriate because the distance to the object to be imaged is too close. The overlap portion can be used as an image candidate for the collision avoidance target object.

喚起・制御部120は、物体検出装置110における検出結果に基づいて、運転者に対して安全確認の喚起又は車両(ここでは、自車両)の運転状態の制御を行う。   Based on the detection result in the object detection device 110, the arousing / control unit 120 alerts the driver to safety confirmation or controls the driving state of the vehicle (here, the own vehicle).

喚起・制御部120は、処理実行判定部121と、提供情報処理部122とを有する。   The awakening / control unit 120 includes a process execution determination unit 121 and a provided information processing unit 122.

処理実行判定部121は、遠方物体検出部113の検出結果に基づいて、運転者に対して安全確認の喚起又は車両の運転状態の制御を行う。   Based on the detection result of the distant object detection unit 113, the process execution determination unit 121 alerts the driver to safety confirmation or controls the driving state of the vehicle.

また、処理実行判定部121は、近傍物体画像候補特定部115で特定された、衝突回避対象物体の画像候補に基づいて、運転者に対して安全確認の喚起又は車両の運転状態の制御を行う。本実施の形態では、処理実行判定部121は、近傍物体画像候補特定部115で衝突回避対象物体の画像候補が特定されること、つまり、上記オーバラップ部分が存在することを条件に、運転者に対して安全確認の喚起又は車両の運転状態の制御を実行すると判定する。   Further, the process execution determination unit 121 urges the driver to confirm safety or controls the driving state of the vehicle based on the image candidate of the collision avoidance target object specified by the nearby object image candidate specifying unit 115. . In the present embodiment, the processing execution determination unit 121 is based on the condition that the nearby object image candidate specifying unit 115 specifies the image candidate of the collision avoidance target object, that is, the presence of the overlap portion. It is determined that safety confirmation is urged or vehicle driving state control is executed.

提供情報処理部122は、処理実行判定部121で実行判定されると、提示情報を設定・変更し、設定・変更した提示情報を情報提示部130に出力する。   Provided information processing section 122, when execution determination is made by process execution determination section 121, presentation information is set / changed, and the set / changed presentation information is output to information presentation section 130.

なお、提供情報処理部122において設定される提示情報は、情報提示部130において提示される形態に対応するものとする。例えば、情報提示部130が、表示パネルなどを用いた表示装置である場合は、当該表示パネルに表示される表示画像として設定され、また、スピーカなどの発音装置であれば、提示情報を音声データとして設定される。また、ハンドル又は座席に配設された振動装置であれば、提示情報を振動データとして設定される。   The presentation information set in the provided information processing unit 122 corresponds to the form presented in the information presentation unit 130. For example, when the information presentation unit 130 is a display device using a display panel or the like, the display information is set as a display image displayed on the display panel. Set as Further, in the case of a vibration device disposed on a handle or a seat, presentation information is set as vibration data.

情報提示部130は、提供情報処理部122において設定された情報の提示を行い、この提示によって、運転支援装置が搭載される車両の走行に関する安全確認を喚起する。   The information presenting unit 130 presents the information set in the provided information processing unit 122, and this presents a safety confirmation regarding the traveling of the vehicle on which the driving support device is mounted.

ここでは、情報提示部130は、車両に搭載される表示パネル(表示部)を備え、車両の運転者に安全確認対象となる対象物の見落としを確認させるための表示を行うものとする。なお、この情報提示部130は、警告音、警告音声などを発して運転者に報知する発音装置により構成されてもよい。また、歩行者などに運転支援装置100が搭載される車両の運転者の見落としを報知したりする報知装置としてもよい。   Here, the information presentation part 130 is provided with the display panel (display part) mounted in a vehicle, and shall perform the display for making the driver | operator of a vehicle confirm the oversight of the target object used as safety confirmation object. In addition, this information presentation part 130 may be comprised with the sounding apparatus which alert | reports a driver | operator by emitting a warning sound, a warning sound, etc. Moreover, it is good also as an alerting | reporting apparatus which alert | reports the oversight of the driver | operator of the vehicle by which the driving assistance apparatus 100 is mounted in a pedestrian etc.

上記構成を有する運転支援装置100の動作について図2のフローに沿って説明する。   The operation of the driving support apparatus 100 having the above configuration will be described along the flow of FIG.

[ステレオ画像の平行化処理]
ステップS1001で画像取得部111は、所定期間内に取得したステレオ画像を、基準画像と比較画像とで別々に平行化処理する。ここで平行化処理とは、ステレオ画像の基準画像及び比較画像のそれぞれについて、エピポーラ線が画像の水平座標軸に対して平行となるようにする、幾何補正処理である。平行化処理を行うためには、必要なパラメータを予め求めておく必要がある。このパラメータを求める方法としては、形状が既知で特徴点の明確な対象物(例えば、チェッカーボード)をステレオカメラで撮影し、各カメラにおける特徴点の検出結果をもとにして、パラメータを算出する方法が一般的に知られている。
[Stereo image parallelization]
In step S <b> 1001, the image acquisition unit 111 parallelizes the stereo image acquired within a predetermined period separately for the reference image and the comparison image. Here, the collimation process is a geometric correction process in which the epipolar line is parallel to the horizontal coordinate axis of each of the stereo image reference image and the comparison image. In order to perform the parallelization process, it is necessary to obtain necessary parameters in advance. As a method for obtaining this parameter, an object (for example, a checkerboard) whose shape is known and whose feature point is clear is photographed with a stereo camera, and the parameter is calculated based on the detection result of the feature point in each camera. Methods are generally known.

[対応点特定処理、視差値算出処理]
ステップS1002で視差情報生成部112は、基準画像における任意点(基準点)に対応する比較画像における対応点を特定し、視差値(つまり、基準画像の全体と比較画像の全体とを重ね合わせたときに基準点と対応点との間に生じる距離)を画素ごとに算出する。
[Corresponding point identification processing, parallax value calculation processing]
In step S1002, the parallax information generation unit 112 identifies a corresponding point in the comparison image corresponding to an arbitrary point (reference point) in the reference image, and superimposes the parallax value (that is, the entire reference image and the entire comparison image). The distance that sometimes occurs between the reference point and the corresponding point) is calculated for each pixel.

図3は、基準画像の基準点と比較画像の対応点と視差値との関係を示す図である。図3に示すように、基準画像上の基準点に対応する対応点は、比較画像において、基準画像における位置よりも左に存在する。この基準点の位置と対応点の位置との差が、視差値として算出される。   FIG. 3 is a diagram illustrating the relationship between the reference point of the reference image, the corresponding point of the comparison image, and the parallax value. As shown in FIG. 3, the corresponding point corresponding to the reference point on the reference image exists on the left side of the reference image in the comparison image. A difference between the position of the reference point and the position of the corresponding point is calculated as a parallax value.

なお、ステレオ画像から対応点を求める方法はどのような方法であってもよい。例えば、基準画像において視差を求めたい点を中心としてその中心点の周囲の点を含む基準領域を抽出し、比較画像において基準領域と同じ大きさの比較領域を順次抽出し、基準領域との輝度差分の絶対値の総和が最小の比較領域を特定することにより、対応点を求める方法(絶対差分和法)でもよい。   Note that any method may be used to obtain the corresponding points from the stereo image. For example, a reference region including a point around the center point is extracted around a point where the parallax is to be obtained in the reference image, a comparison region having the same size as the reference region is sequentially extracted from the comparison image, and the luminance with respect to the reference region A method of obtaining corresponding points by specifying a comparison region having the smallest sum of absolute values of differences (absolute difference sum method) may be used.

このように求められた視差値を対応画素に展開した画像(以下、「視差値画像」と呼ぶことがある)と、カメラ画像(例えば、基準画像)とを図4に示す。図4(a)には、基準画像が示され、図4(b)には、その基準画像と対応する視差値画像が示されている。   FIG. 4 shows an image obtained by developing the parallax value obtained in this way into corresponding pixels (hereinafter, sometimes referred to as “parallax value image”) and a camera image (for example, a reference image). FIG. 4A shows a reference image, and FIG. 4B shows a parallax value image corresponding to the reference image.

図4(b)の視差値画像において黒塗りで表された画素領域は、上記不適視差値画像領域であり、それ以外の部分は、上記適正視差値データ群に対応する画素領域である。   The pixel area represented by black in the parallax value image of FIG. 4B is the inappropriate parallax value image area, and the other part is a pixel area corresponding to the proper parallax value data group.

[遠方物体検出処理]
ステップS1003で遠方物体検出部113は、適正視差値範囲に含まれる適正視差値データ群を用いて、自車両の遠方に存在する遠方物体を検出する。この遠方物体の検出に用いられる適正視差値範囲に含まれる適正視差値データ群が対応画素に展開されることにより得られる視差値画像が、図5に示されている。
[Distant object detection processing]
In step S <b> 1003, the far object detection unit 113 detects a distant object existing far away from the host vehicle using the appropriate disparity value data group included in the appropriate disparity value range. FIG. 5 shows a parallax value image obtained by developing an appropriate parallax value data group included in an appropriate parallax value range used for detection of this distant object on corresponding pixels.

具体的には、遠方物体検出部113は、適正視差値範囲に含まれる適正視差値データ群から、視差値が略等しい視差値データを抽出する。こうすることにより、図5に示すように黒枠で囲まれた各領域が、それぞれグルーピングされることになる。ここでは、3つの遠方物体が検出される。   Specifically, the distant object detection unit 113 extracts disparity value data having substantially the same disparity value from the appropriate disparity value data group included in the appropriate disparity value range. By doing so, each area surrounded by a black frame is grouped as shown in FIG. Here, three distant objects are detected.

[不適視差値画素領域特定処理]
ステップS1004で不適視差値画素領域特定部114は、適正視差値範囲から外れる視差値(つまり、略ゼロの視差値、視差値の信憑性が確保される上限値を超える視差値)を持つ画素及び所定の期間内で視差値を算出することができなかった画素を特定する。この不適視差値画素領域のみが抜き出された視差値画像が、図6に示される。
[Inappropriate parallax value pixel area specifying process]
In step S <b> 1004, the inappropriate parallax value pixel region specifying unit 114 includes a pixel having a parallax value that is out of the proper parallax value range (that is, a parallax value that is substantially zero and a parallax value that exceeds an upper limit value that ensures the credibility of the parallax value) A pixel whose parallax value could not be calculated within a predetermined period is specified. FIG. 6 shows a parallax value image obtained by extracting only the inappropriate parallax value pixel region.

ここで図6の視差値画像において、上側に現れる不適視差値画素領域は視差値が略ゼロの領域(図6におけるD1)である。この視差ゼロ部分は、ステレオマッチングを行った結果、基準画像と比較画像とで殆ど同じ位置にマッチングしてしまう部分である。被撮像物体までの距離が遠くなればなるほど、被撮像物体に対するステレオカメラの相対位置の間に差がなり、視差も小さくなる。そのため、例えば、所定距離以上に離れた建物、又は、山、空などが映し出された画像において求められる視差値は、略ゼロとなる。   Here, in the parallax value image of FIG. 6, the inappropriate parallax value pixel region appearing on the upper side is a region (D1 in FIG. 6) where the parallax value is substantially zero. This zero parallax portion is a portion where matching is performed at almost the same position in the reference image and the comparison image as a result of performing stereo matching. As the distance to the object to be imaged increases, the difference between the relative positions of the stereo camera with respect to the object to be imaged increases, and the parallax also decreases. Therefore, for example, the parallax value obtained in an image in which buildings, mountains, sky, or the like that are separated by a predetermined distance or more are projected is substantially zero.

また、図6の視差値画像において、その下辺部に現れる不適視差値画素領域(図6におけるD2)は、自車両のバンパ部分の画像に対応する。すなわち、カメラに対して物体が近距離になるほど、ステレオにおける物体の視差は大きくなる。そのため、カメラから被撮像物体までの距離が近距離になりすぎると、ステレオマッチングで視差を求めることができなくなるか、又は、求められたとしても信憑性の確保あれる上限値を超える視差値となる。   In addition, in the parallax value image of FIG. 6, an inappropriate parallax value pixel region (D2 in FIG. 6) that appears on the lower side corresponds to the image of the bumper part of the host vehicle. That is, the closer the object is to the camera, the greater the parallax of the object in stereo. Therefore, if the distance from the camera to the object to be imaged becomes too short, it is impossible to obtain the parallax by stereo matching, or even if it is obtained, the parallax value exceeds the upper limit value that ensures credibility. Become.

さらに、図6の視差値画像において、その下辺部に、バンパ部分とは別の不適視差値画素領域(図6におけるD3)が現れている。   Furthermore, in the parallax value image of FIG. 6, an inappropriate parallax value pixel region (D3 in FIG. 6) that is different from the bumper portion appears on the lower side.

[近傍物体画像候補特定処理]
ステップS1005で近傍物体画像候補特定部115は、不適視差値画素領域と近傍物体対応領域とのオーバラップ部分に対応する画素識別データ、及びこれに対応する視差値データを抽出する。
[Nearby object image candidate identification processing]
In step S1005, the nearby object image candidate specifying unit 115 extracts pixel identification data corresponding to an overlap portion between the inappropriate disparity value pixel region and the nearby object corresponding region, and disparity value data corresponding to the pixel identification data.

図6において網掛けされた領域は、上記した近傍物体対応領域である。ここで近傍物体対応領域は、カメラの設置位置に応じて予め定められた領域であり、視差値画像の下辺部に存在する領域であって、バンパ部分などの定常的に現れる不適視差値画素領域を除いた領域である。   The shaded area in FIG. 6 is the above-mentioned nearby object corresponding area. Here, the nearby object corresponding region is a region determined in advance according to the installation position of the camera, and is a region existing on the lower side of the parallax value image, and an inappropriate parallax value pixel region that constantly appears such as a bumper portion. This is the area excluding.

このように予め定められた近傍物体対応領域を用いることにより、上記オーバラップ部分から、D1(視差値が略ゼロの領域)及びD2(定常的に不適視差値が得られる領域)に対応する領域を除くことができる。   In this way, by using the predetermined nearby object corresponding region, the region corresponding to D1 (region where the parallax value is substantially zero) and D2 (region where the inappropriate parallax value is constantly obtained) from the overlapped portion. Can be excluded.

こうして得られる不適視差値画素領域と近傍物体対応領域とのオーバラップ部分は、自車両の近傍に存在する被撮像物体の画像を写した画素である可能性が高い。そのため、このオーバラップ部分を、衝突回避対象物体の画像候補として利用する。   There is a high possibility that the overlap portion between the inappropriate parallax value pixel area and the nearby object corresponding area obtained in this way is a pixel obtained by copying an image of the imaged object that exists in the vicinity of the host vehicle. Therefore, this overlap portion is used as an image candidate for the collision avoidance target object.

[喚起・制御の実行判定処理]
ステップS1006で処理実行判定部121は、近傍物体画像候補特定部115で特定された、衝突回避対象物体の画像候補に基づいて、運転者に対して安全確認の喚起又は車両の運転状態の制御を行う。本実施の形態では、処理実行判定部121は、近傍物体画像候補特定部115で衝突回避対象物体の画像候補が特定されること、つまり、上記オーバラップ部分が存在することを条件に、運転者に対して安全確認の喚起又は車両の運転状態の制御を実行すると判定する。
[Excitation / control execution judgment process]
In step S <b> 1006, the process execution determination unit 121 urges the driver to confirm safety or control the driving state of the vehicle based on the image candidate of the collision avoidance target object specified by the nearby object image candidate specifying unit 115. Do. In the present embodiment, the processing execution determination unit 121 is based on the condition that the nearby object image candidate specifying unit 115 specifies the image candidate of the collision avoidance target object, that is, the presence of the overlap portion. It is determined that safety confirmation is urged or vehicle driving state control is executed.

そして、提供情報処理部122は、処理実行判定部121で実行判定されると、提示情報を設定・変更し、設定・変更した提示情報を情報提示部130に出力する。   Then, when the execution determination is made by the process execution determination unit 121, the provided information processing unit 122 sets / changes the presentation information and outputs the set / changed presentation information to the information presentation unit 130.

なお、検出された遠方物体については、処理実行判定部121が、その物体の視差値(つまり、自車両との距離)と自車両に近づいてくる速さとに応じて、処理を実行するか否かを判定する。ここで、物体の位置や速度の推定を求める方法はどのような方法であってもよい。例えば、前回検出した物体の輝度情報と今回検出した物体の輝度情報との一致度を計算して、時系列に撮影された画像中の物体が同一物体であるかどうかを判定し、同一物体の時系列の位置変化を解析することにより、速度推定を行ってもよい。   Whether or not the process execution determination unit 121 executes the process for the detected distant object according to the parallax value of the object (that is, the distance to the host vehicle) and the speed of approaching the host vehicle. Determine whether. Here, any method may be used for obtaining the estimation of the position and speed of the object. For example, by calculating the degree of coincidence between the luminance information of the previously detected object and the luminance information of the currently detected object, it is determined whether or not the objects in the images taken in time series are the same object. The speed may be estimated by analyzing the time-series position change.

[情報提示処理]
ステップS1007で情報提示部130は、提供情報処理部122において設定された情報の提示を行い、この提示によって、運転支援装置が搭載される車両の走行に関する安全確認を喚起する。
[Information presentation process]
In step S <b> 1007, the information presentation unit 130 presents the information set in the provided information processing unit 122, and by this presentation, the safety confirmation regarding the traveling of the vehicle on which the driving support device is mounted is invoked.

以上のように本実施の形態によれば、運転支援装置100において、不適視差値画素領域特定部114が、視差値を所定時間内に算出できない画素及び上限値を超える視差値が得られる画素を含む不適視差値画素領域を特定し、近傍物体画像候補特定部115が、不適視差値画素領域と近傍物体対応画素領域とのオーバラップ画素領域を特定するとともに当該オーバラップ画素領域に基づいて近傍物体画像候補を特定し、喚起・制御部120が、特定された近傍物体画像候補に基づいて、安全確認の喚起又は自車両の運転状態の制御を行う。   As described above, according to the present embodiment, in the driving assistance device 100, the inappropriate parallax value pixel region specifying unit 114 selects pixels for which the parallax value cannot be calculated within a predetermined time and pixels from which the parallax value exceeding the upper limit value is obtained. An inappropriate parallax value pixel area to be included, and the neighboring object image candidate identification unit 115 identifies an overlapping pixel area between the inappropriate parallax value pixel area and the neighboring object corresponding pixel area, and a neighboring object based on the overlapping pixel area The image candidate is specified, and the awakening / control unit 120 performs safety confirmation or controls the driving state of the host vehicle based on the specified nearby object image candidate.

こうすることにより、不適視差値画素領域と近傍物体対応画素領域とを用いて、自車両の近傍物体を簡単に検出することができる。   By doing so, it is possible to easily detect the nearby object of the host vehicle using the inappropriate parallax value pixel region and the nearby object corresponding pixel region.

ここで上記従来技術では、運転支援装置100と同様に、算出した視差値を用いて物体検出を行うものの、視差値を求めることができなかった画素情報を物体検出に利用する視点が全くない。従って、上記従来技術では、近傍物体を検出するために、追加的に至近距離算出プログラムを実行する必要がある。   Here, in the related art, as in the driving support device 100, although object detection is performed using the calculated parallax value, there is no viewpoint for using pixel information for which parallax value could not be obtained for object detection. Therefore, in the above prior art, it is necessary to additionally execute a close distance calculation program in order to detect a nearby object.

これに対して、運転支援装置100では、従来物体検出に用いられずに捨てられていた不適視差値が得られる画素の情報を利用して、自車両の近傍物体を検出する。従って、従来技術で必要とされる追加的処理を実行することが不要となるため、迅速に近傍物体を検出することができる。また、一タイミングにおける画像情報からそのタイミングに存在する近傍物体を検出することができるので、走行車両の直前に突然現れる物体であっても精度良く検出することができる。   On the other hand, the driving assistance device 100 detects a nearby object of the host vehicle by using pixel information that can obtain an inappropriate parallax value that has been discarded without being used for conventional object detection. Accordingly, it is not necessary to perform an additional process required in the conventional technique, so that a nearby object can be detected quickly. In addition, since a nearby object existing at that timing can be detected from the image information at one timing, even an object that suddenly appears immediately before the traveling vehicle can be detected with high accuracy.

こうして運転支援装置100は、走行車両の直前に突然現れる物体であってもより精度良く且つ迅速に検出でき、この検出結果に基づいて安全確認の喚起又は自車両の運転状態の制御を行うので、走行車両の安全性を確保することができる。   In this way, the driving support device 100 can detect even an object suddenly appearing immediately before the traveling vehicle with higher accuracy and speed, and based on the detection result, the driver confirms safety or controls the driving state of the host vehicle. The safety of the traveling vehicle can be ensured.

(実施の形態2)
実施の形態2では、上記したオーバラップ部分の形状を解析し、解析結果に応じてオーバラップ部分を衝突回避対象物体の画像候補として使用する。図7は、本発明の実施の形態2における運転支援装置200の構成を示すブロック図である。
(Embodiment 2)
In the second embodiment, the shape of the overlap portion described above is analyzed, and the overlap portion is used as an image candidate for the collision avoidance target object according to the analysis result. FIG. 7 is a block diagram showing the configuration of the driving support apparatus 200 according to Embodiment 2 of the present invention.

図7において運転支援装置200は、物体検出装置210を有する。物体検出装置210は、近傍物体画像候補特定部211を有する。   In FIG. 7, the driving support device 200 includes an object detection device 210. The object detection device 210 includes a near object image candidate specifying unit 211.

近傍物体画像候補特定部211は、不適視差値画素領域と近傍物体対応領域とのオーバラップ部分に対応する画素識別データ、及びこれに対応する視差値データを抽出する。具体的には、近傍物体画像候補特定部211は、閉じた画素領域ごとに、両データを抽出する。これにより、上記オーバラップ部分は、閉じた画素領域ごとにグルーピングされる。   The nearby object image candidate specifying unit 211 extracts pixel identification data corresponding to an overlap portion between the inappropriate disparity value pixel area and the nearby object corresponding area, and disparity value data corresponding to the pixel identification data. Specifically, the nearby object image candidate specifying unit 211 extracts both data for each closed pixel region. Thereby, the overlap portion is grouped for each closed pixel region.

すなわち、図8において、いずれも上記オーバラップ部分に含まれる、D3及びD4で示される2つの領域は、別グループにグルーピングされる。こうしてグルーピングされた領域を、以下では「グループ領域」と呼ぶことがある。   That is, in FIG. 8, the two areas indicated by D3 and D4 that are both included in the overlap portion are grouped into different groups. Hereinafter, the grouped area may be referred to as a “group area”.

そして、近傍物体画像候補特定部211は、上記オーバラップ部分の形状を解析する。すなわち、近傍物体画像候補特定部211は、上記オーバラップ部分の面積、幅、高さ、長軸半径、短軸半径、凸度、及びモーメントのうち少なくとも1つを解析する。この解析は、グループ領域ごとに行われる。   Then, the near object image candidate specifying unit 211 analyzes the shape of the overlap portion. That is, the near object image candidate specifying unit 211 analyzes at least one of the area, width, height, major axis radius, minor axis radius, convexity, and moment of the overlap portion. This analysis is performed for each group region.

そして、近傍物体画像候補特定部211は、解析結果が近傍物体判定基準を満たしているときに、解析対象のグループ領域を衝突回避対象物体の画像候補とする。   Then, when the analysis result satisfies the near object determination criterion, the near object image candidate specifying unit 211 sets the analysis target group area as an image candidate for the collision avoidance target object.

図9は、面積、幅、及び高さが解析パラメータとして用いられる場合の形状解析フロー図を示す。   FIG. 9 shows a shape analysis flow diagram when the area, width, and height are used as analysis parameters.

ここでは、面積、幅、及び高さのすべてが各解析パラメータについて定められた閾値(既定値)以上である場合には、解析対象のグループ領域は、衝突回避対象物体の画像候補であると判定される。   Here, when all of the area, width, and height are equal to or greater than the threshold value (predetermined value) determined for each analysis parameter, it is determined that the analysis target group region is an image candidate for the collision avoidance target object. Is done.

一方、面積、幅、及び高さのうち、1つでも閾値未満である場合には、解析対象のグループ領域は、衝突回避対象物体の画像候補でないと判定される。   On the other hand, if at least one of the area, width, and height is less than the threshold value, it is determined that the group region to be analyzed is not an image candidate for the collision avoidance target object.

以上のように本実施の形態によれば、近傍物体画像候補特定部211が、オーバラップ画素領域の面積、幅、高さ、長軸半径、短軸半径、凸度、及びモーメントのうち少なくとも1つを解析パラメータとして算出し、当該算出した値が解析パラメータごとに設定された近傍物体画像判定閾値以上であるときに、オーバラップ部分を近傍物体画像候補として特定する。   As described above, according to the present embodiment, the near object image candidate specifying unit 211 has at least one of the area, width, height, major axis radius, minor axis radius, convexity, and moment of the overlapping pixel region. Is calculated as an analysis parameter, and when the calculated value is equal to or greater than a near object image determination threshold set for each analysis parameter, an overlap portion is specified as a near object image candidate.

こうすることにより、例えば、視差値の算出エラーが起こり不適視差値が求められた場合であっても、不適視差値が求められる画素が少数で局所的に存在する場合には、その画素を近傍物体画像候補から除くことができる。従って、より精度良く近傍物体画像候補を特定することができる。   By doing this, for example, even when a parallax value calculation error occurs and an inappropriate parallax value is obtained, if there are a small number of pixels for which the inappropriate parallax value is found locally, the pixel is It can be excluded from object image candidates. Therefore, it is possible to specify the near object image candidate with higher accuracy.

(実施の形態3)
実施の形態3では、上記したオーバラップ部分の輝度を評価し、評価結果に応じてオーバラップ部分を衝突回避対象物体の画像候補として使用する。図10は、本発明の実施の形態3における運転支援装置300の構成を示すブロック図である。
(Embodiment 3)
In the third embodiment, the luminance of the overlap portion described above is evaluated, and the overlap portion is used as an image candidate for the collision avoidance target object according to the evaluation result. FIG. 10 is a block diagram showing the configuration of the driving support apparatus 300 according to Embodiment 3 of the present invention.

図10において運転支援装置300は、物体検出装置310を有する。物体検出装置310は、近傍物体画像候補特定部311と、輝度評価部312とを有する。   In FIG. 10, the driving support device 300 includes an object detection device 310. The object detection device 310 includes a near object image candidate specifying unit 311 and a luminance evaluation unit 312.

近傍物体画像候補特定部311は、不適視差値画素領域と近傍物体対応領域とのオーバラップ部分に対応する画素識別データ、及びこれに対応する視差値データを抽出する。具体的には、近傍物体画像候補特定部311は、閉じた画素領域ごとに、両データを抽出する。これにより、上記オーバラップ部分は、閉じた画素領域ごとにグルーピングされる。   The nearby object image candidate specifying unit 311 extracts pixel identification data corresponding to an overlap portion between the inappropriate disparity value pixel area and the nearby object corresponding area, and disparity value data corresponding thereto. Specifically, the nearby object image candidate specifying unit 311 extracts both data for each closed pixel region. Thereby, the overlap portion is grouped for each closed pixel region.

すなわち、図11において、いずれも上記オーバラップ部分に含まれる、D3及びD5で示される2つの領域は、別グループにグルーピングされる。   That is, in FIG. 11, the two areas indicated by D3 and D5, both included in the overlap portion, are grouped into different groups.

近傍物体画像候補特定部311は、輝度評価部312が各グループ領域に関して行う輝度評価の結果が、近傍物体判定基準を満たしているときに、その評価対象のグループ領域を衝突回避対象物体の画像候補とする。   When the result of the luminance evaluation performed by the luminance evaluation unit 312 for each group area satisfies the vicinity object determination criterion, the neighboring object image candidate specifying unit 311 selects the evaluation target group area as a collision avoidance target object image candidate. And

輝度評価部312は、画像取得部111からステレオ画像情報を取得するとともに、近傍物体画像候補特定部311で特定されたグループ領域に関する情報を取得する。輝度評価部312は、各グループ領域に対応する、ステレオ画像中の輝度評価対象領域(図12参照)の輝度を求め、その輝度評価対象領域における輝度のばらつき度を評価する。   The luminance evaluation unit 312 acquires stereo image information from the image acquisition unit 111 and acquires information related to the group region specified by the near object image candidate specifying unit 311. The luminance evaluation unit 312 determines the luminance of the luminance evaluation target region (see FIG. 12) in the stereo image corresponding to each group region, and evaluates the degree of variation in luminance in the luminance evaluation target region.

ここでは輝度評価部312は、輝度評価対象領域に対して評価領域フレームf401を適用し、そのフレームが適用された領域を抽出し、この抽出領域の輝度を評価する。   Here, the luminance evaluation unit 312 applies the evaluation region frame f401 to the luminance evaluation target region, extracts a region to which the frame is applied, and evaluates the luminance of the extraction region.

ここで衝突回避対象物体となるような物体について輝度を測定すると、輝度のばらつき度は大きくなる一方、路面などについて輝度を測定すると、輝度のばらつき度は小さい。   Here, when the luminance is measured for an object that is a collision avoidance target object, the degree of variation in luminance increases, whereas when the luminance is measured for a road surface or the like, the degree of variation in luminance is small.

そこで輝度評価部312は、衝突回避対象物体を判定するための、輝度ばらつき度閾値を予め保持しており、上記抽出領域における輝度のばらつき度が閾値以上であるときには、その領域が衝突回避対象物体に対応するものと評価する。   Therefore, the luminance evaluation unit 312 holds a luminance variation degree threshold value for determining a collision avoidance target object in advance, and when the luminance variation degree in the extraction area is equal to or greater than the threshold value, the area is the collision avoidance target object. It is evaluated that it corresponds to.

一方、上記抽出領域における輝度のばらつき度が閾値未満である場合には、輝度評価部312は、その抽出対象に対応するグループ領域が衝突回避対象物体に対応しないものと評価する。   On the other hand, when the variation degree of the luminance in the extraction area is less than the threshold, the luminance evaluation unit 312 evaluates that the group area corresponding to the extraction target does not correspond to the collision avoidance target object.

図12の下方には、各輝度評価対象領域から抽出された領域の輝度が示されている。これを見て分かるように、D3に対応する輝度評価対象領域では、輝度のばらつき度が大きい。一方、D5に対応する輝度評価対象領域では、輝度のばらつき度が小さい。   In the lower part of FIG. 12, the luminances of the regions extracted from the respective luminance evaluation target regions are shown. As can be seen from this, in the luminance evaluation target region corresponding to D3, the luminance variation degree is large. On the other hand, in the luminance evaluation target region corresponding to D5, the luminance variation degree is small.

すなわち、この場合には、D5に対応する輝度評価対象領域は、衝突回避対象物体に対応する領域であると判断される。   That is, in this case, it is determined that the luminance evaluation target region corresponding to D5 is a region corresponding to the collision avoidance target object.

このように各グループ領域の輝度評価を行うことにより、衝突回避対象物体をより精度良く検出することができる。   By performing the luminance evaluation of each group area in this way, the collision avoidance target object can be detected with higher accuracy.

以上のように本実施の形態によれば、輝度評価部312が、オーバラップ部分における輝度のばらつき度を評価し、近傍物体画像候補特定部311が、ばらつき度が物体判定閾値以上であるときに、オーバラップ部分を近傍物体画像候補として特定する。   As described above, according to the present embodiment, the luminance evaluation unit 312 evaluates the luminance variation degree in the overlap portion, and the neighboring object image candidate specifying unit 311 has the variation degree equal to or greater than the object determination threshold value. The overlap portion is specified as a near object image candidate.

こうすることにより、衝突回避対象物体ではない、例えば路面など衝突回避物体とは成り得ない物体が映し出された画素で不適視差値が求められた場合であっても、輝度のばらつき度によってその画素を近傍物体画像候補から除くことができる。従って、より精度良く近傍物体画像候補を特定することができる。   By doing this, even if an inappropriate parallax value is obtained for a pixel that is not a collision avoidance object, for example, an object that cannot be a collision avoidance object such as a road surface, the pixel is determined depending on the degree of variation in luminance. Can be excluded from the nearby object image candidates. Therefore, it is possible to specify the near object image candidate with higher accuracy.

なお、本実施の形態の輝度評価処理は、実施の形態2に適用することができる。すなわち、近傍物体画像候補特定部が、オーバラップ画素領域の面積、幅、高さ、長軸半径、短軸半径、凸度、及びモーメントのうち少なくとも1つを解析パラメータとして算出し、当該算出した値が解析パラメータごとに設定された近傍物体画像判定閾値以上であり、且つ、輝度のばらつき度が物体判定閾値以上であるときに、オーバラップ部分を近傍物体画像候補として特定してもよい。   Note that the luminance evaluation processing according to the present embodiment can be applied to the second embodiment. That is, the near object image candidate specifying unit calculates at least one of the area, width, height, major axis radius, minor axis radius, convexity, and moment of the overlapping pixel region as an analysis parameter, and calculates When the value is equal to or greater than the near object image determination threshold set for each analysis parameter and the luminance variation is equal to or greater than the object determination threshold, the overlap portion may be specified as the near object image candidate.

(実施の形態4)
実施の形態1乃至3では、近傍物体画像候補特定部115で衝突回避対象物体の画像候補が特定されれば、運転者に対して安全確認の喚起又は車両の運転状態の制御を実行する。これに対して、実施の形態4では、喚起・制御部が、衝突回避対象物体の画像候補を用いて物体種別を判別し、この判別結果に応じて運転者に対して安全確認の喚起又は車両の運転状態の制御を実行する。
(Embodiment 4)
In the first to third embodiments, if the near object image candidate specifying unit 115 specifies an image candidate of the collision avoidance target object, the driver is prompted to confirm safety or control the driving state of the vehicle. In contrast, in the fourth embodiment, the awakening / control unit discriminates the object type using the image candidate of the collision avoidance target object, and the driver confirms the safety confirmation or the vehicle according to the discrimination result. The control of the operation state is executed.

すなわち、処理実行判定部121は、近傍物体画像候補特定部115(211、311)で特定された衝突回避対象物体の画像候補を用いて物体種別を判別する。   That is, the process execution determination unit 121 determines the object type using the image candidate of the collision avoidance target object specified by the neighboring object image candidate specification unit 115 (211 and 311).

例えば、処理実行判定部121は、物体種別に応じた形状テンプレート(例えば、人の形状など)を保持し、近傍物体画像候補特定部115(211、311)で特定された衝突回避対象物体の画像候補と、形状テンプレートとの一致度を算出して、一定レベル以上一致する場合には、衝突回避対象物体の画像候補が形状テンプレートに対応する種別の物体であると判別する。そして、その物体種別が衝突回避対象物体である場合に、処理実行判定部121は、運転者に対して安全確認の喚起又は車両の運転状態の制御を実行すると判定する。なお、形状テンプレートは、予め用意したものを固定的に用いてもよいし、判別処理を繰り返す中で学習機能により修正を加えることもできる。   For example, the process execution determination unit 121 holds a shape template (for example, a human shape) corresponding to the object type, and the image of the collision avoidance target object specified by the near object image candidate specifying unit 115 (211 or 311). The degree of coincidence between the candidate and the shape template is calculated, and when there is a certain level or more of coincidence, it is determined that the image candidate of the collision avoidance target object is an object of a type corresponding to the shape template. Then, when the object type is a collision avoidance target object, the process execution determination unit 121 determines to execute a safety confirmation for the driver or control of the driving state of the vehicle. Note that a shape template prepared in advance may be used in a fixed manner, or it may be corrected by a learning function while repeating the discrimination process.

本発明の走行情報提供装置は、走行車両の直前に突然現れる物体であってもより精度良く且つ迅速に検出して、走行車両の安全性を確保するものとして有用である。   The travel information providing apparatus of the present invention is useful for ensuring the safety of a traveling vehicle by detecting an object suddenly appearing immediately before the traveling vehicle more accurately and quickly.

本発明の実施の形態1における運転支援装置の構成を示すブロック図The block diagram which shows the structure of the driving assistance apparatus in Embodiment 1 of this invention. 図1の運転支援装置の動作説明に供するフロー図Flow chart for explaining the operation of the driving support device of FIG. 基準画像の基準点と比較画像の対応点と視差値との関係を示す図The figure which shows the relationship between the reference point of a reference image, the corresponding point of a comparison image, and a parallax value 視差値画像とカメラ画像との対応説明に供する図A diagram for explaining correspondence between a parallax value image and a camera image 適正視差値データ群から得られる視差値画像を示す図The figure which shows the parallax value image obtained from an appropriate parallax value data group 不適視差値画素領域のみが抜き出された視差値画像を示す図The figure which shows the parallax value image from which only the unsuitable parallax value pixel area was extracted. 本発明の実施の形態2における運転支援装置の構成を示すブロック図The block diagram which shows the structure of the driving assistance apparatus in Embodiment 2 of this invention. 図7の運転支援装置における近傍物体画像候補特定部の処理説明に供する図The figure with which it uses for the process description of the near object image candidate specific | specification part in the driving assistance device of FIG. 面積、幅、及び高さが解析パラメータとして用いられる場合の形状解析フロー図Shape analysis flow diagram when area, width, and height are used as analysis parameters 本発明の実施の形態3における運転支援装置の構成を示すブロック図The block diagram which shows the structure of the driving assistance device in Embodiment 3 of this invention. 図10の運転支援装置における近傍物体画像候補特定部の処理説明に供する図The figure with which it uses for process description of the near object image candidate specific | specification part in the driving assistance device of FIG. 図10の運転支援装置における輝度評価部の処理説明に供する図The figure which uses for the process description of the brightness | luminance evaluation part in the driving assistance apparatus of FIG.

符号の説明Explanation of symbols

100,200,300 運転支援装置
110,210,310 物体検出装置
111 画像取得部
112 視差情報生成部
113 遠方物体検出部
114 不適視差値画素領域特定部
115,211,311 近傍物体画像候補特定部
116 近傍物体対応領域記憶部
120 喚起・制御部
121 処理実行判定部
122 提供情報処理部
130 情報提示部
312 輝度評価部
100, 200, 300 Driving support device 110, 210, 310 Object detection device 111 Image acquisition unit 112 Disparity information generation unit 113 Distant object detection unit 114 Inappropriate parallax value pixel region specifying unit 115, 211, 311 Near object image candidate specifying unit 116 Near Object Corresponding Area Storage Unit 120 Arousing / Control Unit 121 Processing Execution Determination Unit 122 Provided Information Processing Unit 130 Information Presentation Unit 312 Luminance Evaluation Unit

Claims (5)

搭載される自車両に配設された第1のカメラ及び第2のカメラで撮影された基準画像及び比較画像を取得するステレオ画像取得手段と、
前記基準画像及び前記比較画像を用いてステレオマッチング処理を行うことにより、前記基準画像を構成する画素ごとに前記比較画像との視差値を算出する視差値算出手段と、
前記視差値算出手段で得られた算出結果に基づいて、前記視差値を所定時間内に算出できない画素及び上限値を超える視差値が得られる画素を含む不適視差値画素領域を特定する特定手段と、
前記第1及び第2のカメラの近傍に存在する被撮影物体の画像が現れる画素群からなる近傍物体対応画素領域に関する情報を記憶する記憶手段と、
前記不適視差値画素領域と前記近傍物体対応画素領域とのオーバラップ画素領域を特定し、当該オーバラップ画素領域に基づいて近傍物体画像候補を特定する近傍物体画像候補特定手段と、
前記特定された近傍物体画像候補に基づいて、安全確認の喚起又は自車両の運転状態の制御を行う喚起・制御手段と、
を具備する走行情報提供装置。
Stereo image acquisition means for acquiring a reference image and a comparison image captured by a first camera and a second camera disposed in the mounted vehicle;
A parallax value calculating means for calculating a parallax value with the comparison image for each pixel constituting the reference image by performing a stereo matching process using the reference image and the comparison image;
A specifying unit for specifying an inappropriate parallax value pixel region including a pixel for which the parallax value cannot be calculated within a predetermined time and a pixel for which a parallax value exceeding an upper limit value is obtained based on a calculation result obtained by the parallax value calculating unit; ,
Storage means for storing information relating to a neighboring object corresponding pixel region composed of a pixel group in which an image of an object to be photographed existing in the vicinity of the first and second cameras appears;
A neighboring object image candidate identifying unit that identifies an overlapping pixel area between the inappropriate parallax value pixel area and the neighboring object corresponding pixel area, and identifies a neighboring object image candidate based on the overlapping pixel area;
Based on the identified nearby object image candidate, arousal / control means for arousing safety confirmation or controlling the driving state of the host vehicle,
A travel information providing apparatus comprising:
前記近傍物体画像候補特定手段は、前記オーバラップ画素領域の面積、幅、高さ、長軸半径、短軸半径、凸度、及びモーメントのうち少なくとも1つを解析パラメータとして算出し、当該算出した値が解析パラメータごとに設定された近傍物体画像判定閾値以上であるときに、前記オーバラップ画素領域を前記近傍物体画像候補として特定する、
請求項1に記載の走行情報提供装置。
The near object image candidate specifying means calculates at least one of the area, width, height, major axis radius, minor axis radius, convexity, and moment of the overlapping pixel region as an analysis parameter, and calculates When the value is equal to or greater than a neighboring object image determination threshold set for each analysis parameter, the overlapping pixel region is identified as the neighboring object image candidate.
The travel information providing apparatus according to claim 1.
前記オーバラップ画素領域における輝度のばらつき度を評価する輝度評価手段を具備し、
前記近傍物体画像候補特定手段は、前記ばらつき度が物体判定閾値以上であるときに、前記オーバラップ画素領域を前記近傍物体画像候補として特定する、
請求項1に記載の走行情報提供装置。
Comprising a luminance evaluation means for evaluating the degree of variation in luminance in the overlap pixel region;
The nearby object image candidate specifying means specifies the overlap pixel region as the nearby object image candidate when the degree of variation is equal to or greater than an object determination threshold.
The travel information providing apparatus according to claim 1.
前記オーバラップ画素領域における輝度のばらつき度を評価する輝度評価手段を具備し、
前記近傍物体画像候補特定手段は、
前記オーバラップ画素領域の面積、幅、高さ、長軸半径、短軸半径、凸度、及びモーメントのうち少なくとも1つを解析パラメータとして算出し、
当該算出した値が解析パラメータごとに設定された近傍物体画像判定閾値以上であり、且つ、前記ばらつき度が物体判定閾値以上であるときに、前記オーバラップ画素領域を前記近傍物体画像候補として特定する、
請求項1に記載の走行情報提供装置。
Comprising a luminance evaluation means for evaluating the degree of variation in luminance in the overlap pixel region;
The nearby object image candidate specifying means includes:
Calculating at least one of the area, width, height, major axis radius, minor axis radius, convexity, and moment of the overlapping pixel region as an analysis parameter;
When the calculated value is equal to or greater than the near object image determination threshold set for each analysis parameter and the degree of variation is equal to or greater than the object determination threshold, the overlap pixel region is specified as the near object image candidate. ,
The travel information providing apparatus according to claim 1.
前記喚起・制御手段は、物体種別に応じた形状テンプレートを保持するとともに前記特定された近傍物体画像候補と前記形状テンプレートとの形状一致度に基づいて物体種別を判別し、当該判別した物体種別に応じて、安全確認の喚起又は自車両の運転状態の制御を行う、
請求項1から請求項4のいずれかに記載の走行情報提供装置。
The arousing / control means holds a shape template corresponding to the object type, determines an object type based on a shape matching degree between the specified nearby object image candidate and the shape template, and determines the determined object type. Depending on the safety confirmation or control of the driving state of the vehicle,
The travel information providing device according to any one of claims 1 to 4.
JP2008126038A 2008-05-13 2008-05-13 Travelling information providing device Pending JP2009276906A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008126038A JP2009276906A (en) 2008-05-13 2008-05-13 Travelling information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008126038A JP2009276906A (en) 2008-05-13 2008-05-13 Travelling information providing device

Publications (1)

Publication Number Publication Date
JP2009276906A true JP2009276906A (en) 2009-11-26

Family

ID=41442304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008126038A Pending JP2009276906A (en) 2008-05-13 2008-05-13 Travelling information providing device

Country Status (1)

Country Link
JP (1) JP2009276906A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147329A1 (en) * 2011-04-28 2012-11-01 パナソニック株式会社 Stereoscopic intensity adjustment device, stereoscopic intensity adjustment method, program, integrated circuit, and recording medium
JP2013186902A (en) * 2012-03-07 2013-09-19 Ricoh Co Ltd Vehicle detection method and apparatus
JP2016024685A (en) * 2014-07-22 2016-02-08 日立建機株式会社 Work vehicle for mine
WO2017090705A1 (en) * 2015-11-27 2017-06-01 Necソリューションイノベータ株式会社 Image processing device, image processing method and computer-readable recording medium
WO2021245973A1 (en) * 2020-06-05 2021-12-09 日立Astemo株式会社 Computation device and parallax search method
JP7384147B2 (en) 2020-11-30 2023-11-21 トヨタ自動車株式会社 Target object detection device and vehicle equipped with it

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147329A1 (en) * 2011-04-28 2012-11-01 パナソニック株式会社 Stereoscopic intensity adjustment device, stereoscopic intensity adjustment method, program, integrated circuit, and recording medium
JP6002043B2 (en) * 2011-04-28 2016-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Stereoscopic intensity adjusting device, stereoscopic intensity adjusting method, program, integrated circuit, recording medium
JP2013186902A (en) * 2012-03-07 2013-09-19 Ricoh Co Ltd Vehicle detection method and apparatus
JP2016024685A (en) * 2014-07-22 2016-02-08 日立建機株式会社 Work vehicle for mine
WO2017090705A1 (en) * 2015-11-27 2017-06-01 Necソリューションイノベータ株式会社 Image processing device, image processing method and computer-readable recording medium
JPWO2017090705A1 (en) * 2015-11-27 2018-09-20 Necソリューションイノベータ株式会社 Image processing apparatus, image processing method, and program
WO2021245973A1 (en) * 2020-06-05 2021-12-09 日立Astemo株式会社 Computation device and parallax search method
JP7384147B2 (en) 2020-11-30 2023-11-21 トヨタ自動車株式会社 Target object detection device and vehicle equipped with it

Similar Documents

Publication Publication Date Title
JP5421072B2 (en) Approaching object detection system
JP4420011B2 (en) Object detection device
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
JP6416293B2 (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
KR20150051735A (en) Parking Guide System and the Method
JP6450294B2 (en) Object detection apparatus, object detection method, and program
JP2008219063A (en) Apparatus and method for monitoring vehicle&#39;s surrounding
WO2018116841A1 (en) Object detection device
JP7009042B2 (en) A device that can operate to determine the position of a part of the lane
US20150235093A1 (en) Moving Object Recognition Apparatus
JP2005202678A (en) Traveling support device
KR20160075135A (en) Vehicle System for Detecting Objects and Detecting Method
JP6129268B2 (en) Vehicle driving support system and driving support method
JP2009276906A (en) Travelling information providing device
KR20060021922A (en) Two camera based obstacle detection method and device
JP2018048949A (en) Object recognition device
JP2018060422A (en) Object detection device
JP2007309799A (en) On-board distance measuring apparatus
KR20180063524A (en) Method and Apparatus for Detecting Risk of Forward Vehicle Using Virtual Lane
JP2008310440A (en) Pedestrian detection device
JP6115429B2 (en) Own vehicle position recognition device
KR101721442B1 (en) Avoiding Collision Systemn using Blackbox Rear Camera for vehicle and Method thereof
JP2011103058A (en) Erroneous recognition prevention device
KR20120086962A (en) System and method for detecting distance between forward vehicle using image in navigation for vehicle
KR20160133386A (en) Method of Avoiding Collision Systemn using Blackbox Rear Camera for vehicle