JP2009276906A - Travelling information providing device - Google Patents
Travelling information providing device Download PDFInfo
- Publication number
- JP2009276906A JP2009276906A JP2008126038A JP2008126038A JP2009276906A JP 2009276906 A JP2009276906 A JP 2009276906A JP 2008126038 A JP2008126038 A JP 2008126038A JP 2008126038 A JP2008126038 A JP 2008126038A JP 2009276906 A JP2009276906 A JP 2009276906A
- Authority
- JP
- Japan
- Prior art keywords
- image
- parallax value
- pixel
- image candidate
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ステレオ画像から求められる視差情報を利用した走行情報提供装置に関する。 The present invention relates to a travel information providing apparatus using parallax information obtained from a stereo image.
近年、自動車の安全性向上のために、前方の車両等の障害物を検知し、当該障害物との衝突の危険を運転者に警告する技術が開発されている。このような技術では、自車両にとって衝突する危険性のある障害物を検出するために、カメラ、レーダ等の車載センサが用いられる。 In recent years, in order to improve the safety of automobiles, techniques have been developed to detect obstacles such as vehicles ahead and warn the driver of the danger of collision with the obstacles. In such a technique, in-vehicle sensors such as a camera and a radar are used in order to detect an obstacle that may collide with the host vehicle.
車載のセンサとして、複数のカメラからなるステレオカメラが用いられる場合がある。各カメラで撮影された画像において、同じ物体の像が現れる位置を特定して(この処理をステレオマッチングと呼ぶことがある)、その位置のずれである視差値を算出する。この視差は、撮像位置(つまり、カメラの配置)の違いから生じる。 As a vehicle-mounted sensor, a stereo camera including a plurality of cameras may be used. In an image taken by each camera, a position where the same object image appears is specified (this process may be referred to as stereo matching), and a parallax value that is a deviation of the position is calculated. This parallax is caused by a difference in imaging position (that is, camera arrangement).
一般的に、算出された視差値は、三角測量法によって、自車両から被撮像物体までの距離に換算される。このようにして得られた視差情報または距離情報を利用して、物体検出処理が実施される。具体的には、例えば、略同一の視差値が集合している部分を物体の像として抽出する方法等で、物体検出が行われる。更に、時系列的に撮影された複数の画像において、この物体検出を行い、複数画像における同一物体像の位置を追跡することで、自車両にとって危険な障害物かどうかの判定が可能となる。そして、危険な障害物が存在する場合には、運転者への警告を行うことが可能となる。 In general, the calculated parallax value is converted into a distance from the own vehicle to the object to be imaged by a triangulation method. Object detection processing is performed using the parallax information or distance information obtained in this way. Specifically, for example, object detection is performed by a method of extracting a part where substantially the same parallax values are collected as an object image. Furthermore, by detecting this object in a plurality of images taken in time series and tracking the position of the same object image in the plurality of images, it is possible to determine whether the obstacle is dangerous for the host vehicle. And when a dangerous obstacle exists, it becomes possible to warn a driver.
また特許文献1にも、この視差を用いて物体を検出する技術が開示されている。 Patent Document 1 also discloses a technique for detecting an object using this parallax.
特許文献1に開示されている車外監視装置は、車外の対象をステレオ撮像した、2枚の画像間のシティブロック距離を計算して距離情報を出力する距離検出回路を備え、この距離検出回路からの距離情報に基づいて車外の状況を認識するものであり、上記距離検出回路からの距離情報に基づく今回の立体物の検出結果と前回の立体物の検出結果とを照合し、上記距離検出回路の検出可能限界距離より近くに立体物が存在するか否かを判定し、上記距離検出回路の検出可能限界距離より近くに立体物が存在すると判定されたとき、一方の撮像画像に設定した領域に対応する部分を他方の撮像画像から探索して視差を求め、この視差から上記距離検出回路の検出可能限界距離より近くに存在する立体物までの距離を算出する至近距離算出プログラムを実行する。
しかしながら、上記したように視差値又は当該視差値を換算した距離情報のみを用いて物体検出する方法には、限界がある。すなわち、カメラ等の撮像部と、被撮像物体との距離がある限界距離より近くなると、正確な視差値を得ることができない。 However, as described above, there is a limit to the method of detecting an object using only the parallax value or the distance information obtained by converting the parallax value. That is, when the distance between the imaging unit such as a camera and the object to be captured is closer than a certain limit distance, an accurate parallax value cannot be obtained.
この問題に対して、上記した特許文献1では距離検出回路の検出可能限界距離より近い位置に存在する物体までの距離を至近距離算出プログラムで算出している。 In order to solve this problem, in Patent Document 1 described above, the distance to an object existing at a position closer to the detectable limit distance of the distance detection circuit is calculated by the closest distance calculation program.
しかしながら、特許文献1に開示された技術では、被撮影エリア(つまり、カメラ視野内)に突然現れる物体を検出することはできない。これは、至近距離に物体が存在するか否かの判断に異なる2つのタイミングにおける検出結果を用いるので、その判断時から遠いタイミングの検出結果に、突然現れた物体が反映されていない可能性が高いからである。 However, the technique disclosed in Patent Document 1 cannot detect an object that suddenly appears in the shooting area (that is, in the camera field of view). This is because the detection results at two different timings are used to determine whether or not an object is present at a close distance, so that there is a possibility that an object that appears suddenly is not reflected in the detection results at a timing far from the determination time. Because it is expensive.
また、最終的に検出物体に対する注意を運転者に喚起する場合、できるだけ早く喚起することが望まれるため、実際上、物体検出に掛けることができる時間は制限される。そのため、距離を算出できることを前提としている上記従来技術では、その制限時間内に視差値又は当該視差値に対応する距離情報を算出できないことが十分に考えられる。 In addition, when the driver is finally alerted to the detected object, it is desired to alert the driver as soon as possible, so that the time that can be spent on the object detection is actually limited. For this reason, it is fully conceivable that the above-described conventional technology that assumes that the distance can be calculated cannot calculate the parallax value or the distance information corresponding to the parallax value within the time limit.
このように従来技術では、特に被撮影エリアに突然現れるような物体を精度良く且つ迅速に検出できず、その結果、物体検出装置が搭載される走行車両の安全性を十分に確保できない問題がある。 As described above, the conventional technique cannot detect an object that appears suddenly in the shooting area with high accuracy and speed, and as a result, cannot sufficiently secure the safety of the traveling vehicle on which the object detection device is mounted. .
本発明は、かかる点に鑑みてなされたものであり、走行車両の直前に突然現れる物体であってもより精度良く且つ迅速に検出して、走行車両の安全性を確保する走行情報提供装置を提供することを目的とする。 The present invention has been made in view of the above points, and provides a travel information providing device that can detect even an object suddenly appearing immediately before a traveling vehicle more accurately and quickly and ensure the safety of the traveling vehicle. The purpose is to provide.
本発明の走行情報提供装置は、搭載される自車両に配設された第1のカメラ及び第2のカメラで撮影された基準画像及び比較画像を取得するステレオ画像取得手段と、前記基準画像及び前記比較画像を用いてステレオマッチング処理を行うことにより、前記基準画像を構成する画素ごとに前記比較画像との視差値を算出する視差値算出手段と、前記視差値算出手段で得られた算出結果に基づいて、前記視差値を所定時間内に算出できない画素及び上限値を超える視差値が得られる画素を含む不適視差値画素領域を特定する特定手段と、前記第1及び第2のカメラの近傍に存在する被撮影物体の画像が現れる画素群からなる近傍物体対応画素領域に関する情報を記憶する記憶手段と、前記不適視差値画素領域と前記近傍物体対応画素領域とのオーバラップ画素領域を特定し、当該オーバラップ画素領域に基づいて近傍物体画像候補を特定する近傍物体画像候補特定手段と、前記特定された近傍物体画像候補に基づいて、安全確認の喚起又は自車両の運転状態の制御を行う喚起・制御手段と、を具備する構成を採る。 The travel information providing apparatus according to the present invention includes a stereo image acquisition unit that acquires a reference image and a comparison image captured by a first camera and a second camera disposed in a host vehicle mounted thereon, the reference image, A parallax value calculation unit that calculates a parallax value with the comparison image for each pixel constituting the reference image by performing a stereo matching process using the comparison image, and a calculation result obtained by the parallax value calculation unit And means for specifying an inappropriate parallax value pixel area including a pixel for which the parallax value cannot be calculated within a predetermined time and a pixel from which a parallax value exceeding an upper limit value is obtained, and the vicinity of the first and second cameras Storage means for storing information relating to a neighboring object corresponding pixel area consisting of a group of pixels in which an image of an object to be photographed that is present in an object, and an offset between the inappropriate parallax value pixel area and the neighboring object corresponding pixel area A neighboring object image candidate identifying unit that identifies a barrier pixel region and identifies a nearby object image candidate based on the overlap pixel region, and a safety confirmation alert or a vehicle's vehicle based on the identified nearby object image candidate. A structure including arousing / controlling means for controlling the driving state is adopted.
本発明によれば、走行車両の直前に突然現れる物体であってもより精度良く且つ迅速に検出して、走行車両の安全性を確保する走行情報提供装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, even if it is an object which appears suddenly just before a traveling vehicle, it can detect more accurately and rapidly, and the traveling information provision apparatus which ensures the safety of a traveling vehicle can be provided.
以下、本発明の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態では、走行情報提供装置を、運転手に、衝突の危険性のある、回避対象物体の出現を走行情報として提供することで運転を支援する運転支援装置として説明する。実施の形態において、同一の構成要素には同一の符号を付し、その説明は重複するので省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, the driving information providing device will be described as a driving support device that supports driving by providing the driver with the appearance of an avoidance target object that has a risk of collision as driving information. In the embodiments, the same components are denoted by the same reference numerals, and the description thereof will be omitted because it is redundant.
(実施の形態1)
図1は、本発明の実施の形態1における運転支援装置(走行情報提供装置)100の構成を示すブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a driving support device (running information providing device) 100 according to Embodiment 1 of the present invention.
図1において運転支援装置100は、ここでは車両に搭載されるものであり、物体検出装置110と、喚起・制御部120と、情報提示部130とを有する。
In FIG. 1, the
物体検出装置110は、車両に配設された複数のカメラで撮影された複数の画像情報(以下、「ステレオ画像情報」と呼ぶことがある)を取得する。各画像情報は、それぞれが画素(ピクセル)と対応する画素データ群で構成されている。
The
物体検出装置110は、取得したステレオ画像情報を用いて画素ごとの視差値を算出する。そして物体検出装置110は、算出された視差値データ群のうち、所定の視差値範囲(以下、「適正視差値範囲」と呼ぶことがある)に含まれる適正視差値データ群を用いて、車両前方に存在する物体を検出する。
The
更に、物体検出装置110は、適正視差値範囲から外れる視差値(つまり、略ゼロの視差値、視差値の信憑性が確保される上限値を超える視差値)を持つ画素及び所定の期間内で視差値を算出することができなかった画素から構成される不適視差値画素領域に基づいて、車両直前に存在する衝突回避対象物体を検出する。
Furthermore, the
ここでは物体検出装置110は、画像取得部111と、視差情報生成部112と、遠方物体検出部113と、不適視差値画素領域特定部114と、近傍物体画像候補特定部115と、近傍物体対応領域記憶部116を有している。
Here, the
画像取得部111は、車両の左右に前方へ向けて配設された2つのカメラ(以下、「ステレオカメラ」と呼ぶことがある)で撮影されたステレオ画像情報を取得する。なお、ここでは説明を簡単にするために、設置カメラの数を2つとして説明するが、2つ以上であればその数は特に限定されるものではない。
The
取得されたステレオ画像情報には、2つのカメラで同時刻に撮影された、2つの画像情報が含まれている。一のカメラで撮影された画像情報が「基準画像」の情報であり、他のカメラで撮影された画像情報が「比較画像」の情報である。基準画像の一部の領域は、比較画像に含まれている。すなわち、基準画像と比較画像とは、一部がオーバラップしている。 The acquired stereo image information includes two pieces of image information taken by two cameras at the same time. Image information photographed by one camera is “reference image” information, and image information photographed by another camera is “comparative image” information. A part of the reference image is included in the comparison image. That is, the reference image and the comparison image partially overlap.
画像取得部111は、取得した基準画像情報及び比較画像情報を視差情報生成部112に送出する。なお、所定期間内に取得したステレオ画像を、画像取得部111が基準画像と比較画像とで別々に平行化処理し、得られた情報を基準画像情報及び比較画像情報として視差情報生成部112に送出してもよい。この平行化処理については、後に詳述する。
The
視差情報生成部112は、基準画像及び比較画像を用いてステレオマッチング処理を行うことにより、画素ごとに基準画像と比較画像との視差値を算出する。ステレオマッチング処理では、まず、基準画像における任意点(基準点)に対応する比較画像における対応点が特定される。すなわち、基準画像の画素データ(以下、「基準画素データ」と呼ぶことがある)と対応する比較画像における画素データ(以下、「対応比較画素データ」と呼ぶことがある)が、画素ごとに特定される。
The disparity
そして、基準画像の全体と比較画像の全体とを重ね合わせたときに、基準点と対応点との間に生じる距離が、視差値として算出される。すなわち、基準画素データの画素と対応比較画像データの画素との間に生じる距離が、視差値として算出される。 Then, when the entire reference image and the entire comparison image are overlaid, a distance generated between the reference point and the corresponding point is calculated as a parallax value. That is, the distance generated between the pixel of the reference pixel data and the pixel of the corresponding comparison image data is calculated as the parallax value.
遠方物体検出部113は、適正視差値範囲に含まれる適正視差値データ群を用いて、車両前方に存在する物体を検出する。具体的には、遠方物体検出部113は、適正視差値範囲に含まれる適正視差値データ群から、視差値が略等しい視差値データを抽出する。これにより、物体画像候補ごとに視差値データをグルーピングすることができる。これは、同一物体の画像が存在する画素における視差値が略等しいという性質を利用している。
The far
不適視差値画素領域特定部114は、適正視差値範囲から外れる視差値(つまり、略ゼロの視差値、視差値の信憑性が確保される上限値を超える視差値)を持つ画素及び所定の期間内で視差値を算出することができなかった画素を特定する。これにより、不適視差値画素領域が特定される。
The inappropriate parallax value pixel
近傍物体画像候補特定部115は、不適視差値画素領域と近傍物体対応領域とに基づいて、車両直前に存在する衝突回避対象物体の画像候補を特定する。近傍物体対応領域とは、カメラの近傍に存在する被撮像物体の画像が現れる画素群からなる領域である。この近傍物体対応領域に関する情報は、近傍物体対応領域記憶部116に記憶されている。
The near object image
具体的には、近傍物体画像候補特定部115は、不適視差値画素領域と近傍物体対応領域とのオーバラップ部分に対応する画素識別データ、及びこれに対応する視差値データを抽出する。ここで不適視差値画素領域と近傍物体対応領域とのオーバラップ部分は、自車両の近傍に存在する被撮像物体の画像を写した画素である可能性が高い。すなわち、不適視差値画素領域には、被撮像物体までの距離が近すぎるために算出視差値が不適切な値となった画素が含まれるため、その不適視差値画素領域と近傍物体対応領域とのオーバラップ部分は、衝突回避対象物体の画像候補として利用することができる。
Specifically, the neighboring object image
喚起・制御部120は、物体検出装置110における検出結果に基づいて、運転者に対して安全確認の喚起又は車両(ここでは、自車両)の運転状態の制御を行う。
Based on the detection result in the
喚起・制御部120は、処理実行判定部121と、提供情報処理部122とを有する。
The awakening /
処理実行判定部121は、遠方物体検出部113の検出結果に基づいて、運転者に対して安全確認の喚起又は車両の運転状態の制御を行う。
Based on the detection result of the distant
また、処理実行判定部121は、近傍物体画像候補特定部115で特定された、衝突回避対象物体の画像候補に基づいて、運転者に対して安全確認の喚起又は車両の運転状態の制御を行う。本実施の形態では、処理実行判定部121は、近傍物体画像候補特定部115で衝突回避対象物体の画像候補が特定されること、つまり、上記オーバラップ部分が存在することを条件に、運転者に対して安全確認の喚起又は車両の運転状態の制御を実行すると判定する。
Further, the process
提供情報処理部122は、処理実行判定部121で実行判定されると、提示情報を設定・変更し、設定・変更した提示情報を情報提示部130に出力する。
Provided
なお、提供情報処理部122において設定される提示情報は、情報提示部130において提示される形態に対応するものとする。例えば、情報提示部130が、表示パネルなどを用いた表示装置である場合は、当該表示パネルに表示される表示画像として設定され、また、スピーカなどの発音装置であれば、提示情報を音声データとして設定される。また、ハンドル又は座席に配設された振動装置であれば、提示情報を振動データとして設定される。
The presentation information set in the provided
情報提示部130は、提供情報処理部122において設定された情報の提示を行い、この提示によって、運転支援装置が搭載される車両の走行に関する安全確認を喚起する。
The
ここでは、情報提示部130は、車両に搭載される表示パネル(表示部)を備え、車両の運転者に安全確認対象となる対象物の見落としを確認させるための表示を行うものとする。なお、この情報提示部130は、警告音、警告音声などを発して運転者に報知する発音装置により構成されてもよい。また、歩行者などに運転支援装置100が搭載される車両の運転者の見落としを報知したりする報知装置としてもよい。
Here, the
上記構成を有する運転支援装置100の動作について図2のフローに沿って説明する。
The operation of the driving
[ステレオ画像の平行化処理]
ステップS1001で画像取得部111は、所定期間内に取得したステレオ画像を、基準画像と比較画像とで別々に平行化処理する。ここで平行化処理とは、ステレオ画像の基準画像及び比較画像のそれぞれについて、エピポーラ線が画像の水平座標軸に対して平行となるようにする、幾何補正処理である。平行化処理を行うためには、必要なパラメータを予め求めておく必要がある。このパラメータを求める方法としては、形状が既知で特徴点の明確な対象物(例えば、チェッカーボード)をステレオカメラで撮影し、各カメラにおける特徴点の検出結果をもとにして、パラメータを算出する方法が一般的に知られている。
[Stereo image parallelization]
In step S <b> 1001, the
[対応点特定処理、視差値算出処理]
ステップS1002で視差情報生成部112は、基準画像における任意点(基準点)に対応する比較画像における対応点を特定し、視差値(つまり、基準画像の全体と比較画像の全体とを重ね合わせたときに基準点と対応点との間に生じる距離)を画素ごとに算出する。
[Corresponding point identification processing, parallax value calculation processing]
In step S1002, the parallax
図3は、基準画像の基準点と比較画像の対応点と視差値との関係を示す図である。図3に示すように、基準画像上の基準点に対応する対応点は、比較画像において、基準画像における位置よりも左に存在する。この基準点の位置と対応点の位置との差が、視差値として算出される。 FIG. 3 is a diagram illustrating the relationship between the reference point of the reference image, the corresponding point of the comparison image, and the parallax value. As shown in FIG. 3, the corresponding point corresponding to the reference point on the reference image exists on the left side of the reference image in the comparison image. A difference between the position of the reference point and the position of the corresponding point is calculated as a parallax value.
なお、ステレオ画像から対応点を求める方法はどのような方法であってもよい。例えば、基準画像において視差を求めたい点を中心としてその中心点の周囲の点を含む基準領域を抽出し、比較画像において基準領域と同じ大きさの比較領域を順次抽出し、基準領域との輝度差分の絶対値の総和が最小の比較領域を特定することにより、対応点を求める方法(絶対差分和法)でもよい。 Note that any method may be used to obtain the corresponding points from the stereo image. For example, a reference region including a point around the center point is extracted around a point where the parallax is to be obtained in the reference image, a comparison region having the same size as the reference region is sequentially extracted from the comparison image, and the luminance with respect to the reference region A method of obtaining corresponding points by specifying a comparison region having the smallest sum of absolute values of differences (absolute difference sum method) may be used.
このように求められた視差値を対応画素に展開した画像(以下、「視差値画像」と呼ぶことがある)と、カメラ画像(例えば、基準画像)とを図4に示す。図4(a)には、基準画像が示され、図4(b)には、その基準画像と対応する視差値画像が示されている。 FIG. 4 shows an image obtained by developing the parallax value obtained in this way into corresponding pixels (hereinafter, sometimes referred to as “parallax value image”) and a camera image (for example, a reference image). FIG. 4A shows a reference image, and FIG. 4B shows a parallax value image corresponding to the reference image.
図4(b)の視差値画像において黒塗りで表された画素領域は、上記不適視差値画像領域であり、それ以外の部分は、上記適正視差値データ群に対応する画素領域である。 The pixel area represented by black in the parallax value image of FIG. 4B is the inappropriate parallax value image area, and the other part is a pixel area corresponding to the proper parallax value data group.
[遠方物体検出処理]
ステップS1003で遠方物体検出部113は、適正視差値範囲に含まれる適正視差値データ群を用いて、自車両の遠方に存在する遠方物体を検出する。この遠方物体の検出に用いられる適正視差値範囲に含まれる適正視差値データ群が対応画素に展開されることにより得られる視差値画像が、図5に示されている。
[Distant object detection processing]
In step S <b> 1003, the far
具体的には、遠方物体検出部113は、適正視差値範囲に含まれる適正視差値データ群から、視差値が略等しい視差値データを抽出する。こうすることにより、図5に示すように黒枠で囲まれた各領域が、それぞれグルーピングされることになる。ここでは、3つの遠方物体が検出される。
Specifically, the distant
[不適視差値画素領域特定処理]
ステップS1004で不適視差値画素領域特定部114は、適正視差値範囲から外れる視差値(つまり、略ゼロの視差値、視差値の信憑性が確保される上限値を超える視差値)を持つ画素及び所定の期間内で視差値を算出することができなかった画素を特定する。この不適視差値画素領域のみが抜き出された視差値画像が、図6に示される。
[Inappropriate parallax value pixel area specifying process]
In step S <b> 1004, the inappropriate parallax value pixel
ここで図6の視差値画像において、上側に現れる不適視差値画素領域は視差値が略ゼロの領域(図6におけるD1)である。この視差ゼロ部分は、ステレオマッチングを行った結果、基準画像と比較画像とで殆ど同じ位置にマッチングしてしまう部分である。被撮像物体までの距離が遠くなればなるほど、被撮像物体に対するステレオカメラの相対位置の間に差がなり、視差も小さくなる。そのため、例えば、所定距離以上に離れた建物、又は、山、空などが映し出された画像において求められる視差値は、略ゼロとなる。 Here, in the parallax value image of FIG. 6, the inappropriate parallax value pixel region appearing on the upper side is a region (D1 in FIG. 6) where the parallax value is substantially zero. This zero parallax portion is a portion where matching is performed at almost the same position in the reference image and the comparison image as a result of performing stereo matching. As the distance to the object to be imaged increases, the difference between the relative positions of the stereo camera with respect to the object to be imaged increases, and the parallax also decreases. Therefore, for example, the parallax value obtained in an image in which buildings, mountains, sky, or the like that are separated by a predetermined distance or more are projected is substantially zero.
また、図6の視差値画像において、その下辺部に現れる不適視差値画素領域(図6におけるD2)は、自車両のバンパ部分の画像に対応する。すなわち、カメラに対して物体が近距離になるほど、ステレオにおける物体の視差は大きくなる。そのため、カメラから被撮像物体までの距離が近距離になりすぎると、ステレオマッチングで視差を求めることができなくなるか、又は、求められたとしても信憑性の確保あれる上限値を超える視差値となる。 In addition, in the parallax value image of FIG. 6, an inappropriate parallax value pixel region (D2 in FIG. 6) that appears on the lower side corresponds to the image of the bumper part of the host vehicle. That is, the closer the object is to the camera, the greater the parallax of the object in stereo. Therefore, if the distance from the camera to the object to be imaged becomes too short, it is impossible to obtain the parallax by stereo matching, or even if it is obtained, the parallax value exceeds the upper limit value that ensures credibility. Become.
さらに、図6の視差値画像において、その下辺部に、バンパ部分とは別の不適視差値画素領域(図6におけるD3)が現れている。 Furthermore, in the parallax value image of FIG. 6, an inappropriate parallax value pixel region (D3 in FIG. 6) that is different from the bumper portion appears on the lower side.
[近傍物体画像候補特定処理]
ステップS1005で近傍物体画像候補特定部115は、不適視差値画素領域と近傍物体対応領域とのオーバラップ部分に対応する画素識別データ、及びこれに対応する視差値データを抽出する。
[Nearby object image candidate identification processing]
In step S1005, the nearby object image
図6において網掛けされた領域は、上記した近傍物体対応領域である。ここで近傍物体対応領域は、カメラの設置位置に応じて予め定められた領域であり、視差値画像の下辺部に存在する領域であって、バンパ部分などの定常的に現れる不適視差値画素領域を除いた領域である。 The shaded area in FIG. 6 is the above-mentioned nearby object corresponding area. Here, the nearby object corresponding region is a region determined in advance according to the installation position of the camera, and is a region existing on the lower side of the parallax value image, and an inappropriate parallax value pixel region that constantly appears such as a bumper portion. This is the area excluding.
このように予め定められた近傍物体対応領域を用いることにより、上記オーバラップ部分から、D1(視差値が略ゼロの領域)及びD2(定常的に不適視差値が得られる領域)に対応する領域を除くことができる。 In this way, by using the predetermined nearby object corresponding region, the region corresponding to D1 (region where the parallax value is substantially zero) and D2 (region where the inappropriate parallax value is constantly obtained) from the overlapped portion. Can be excluded.
こうして得られる不適視差値画素領域と近傍物体対応領域とのオーバラップ部分は、自車両の近傍に存在する被撮像物体の画像を写した画素である可能性が高い。そのため、このオーバラップ部分を、衝突回避対象物体の画像候補として利用する。 There is a high possibility that the overlap portion between the inappropriate parallax value pixel area and the nearby object corresponding area obtained in this way is a pixel obtained by copying an image of the imaged object that exists in the vicinity of the host vehicle. Therefore, this overlap portion is used as an image candidate for the collision avoidance target object.
[喚起・制御の実行判定処理]
ステップS1006で処理実行判定部121は、近傍物体画像候補特定部115で特定された、衝突回避対象物体の画像候補に基づいて、運転者に対して安全確認の喚起又は車両の運転状態の制御を行う。本実施の形態では、処理実行判定部121は、近傍物体画像候補特定部115で衝突回避対象物体の画像候補が特定されること、つまり、上記オーバラップ部分が存在することを条件に、運転者に対して安全確認の喚起又は車両の運転状態の制御を実行すると判定する。
[Excitation / control execution judgment process]
In step S <b> 1006, the process
そして、提供情報処理部122は、処理実行判定部121で実行判定されると、提示情報を設定・変更し、設定・変更した提示情報を情報提示部130に出力する。
Then, when the execution determination is made by the process
なお、検出された遠方物体については、処理実行判定部121が、その物体の視差値(つまり、自車両との距離)と自車両に近づいてくる速さとに応じて、処理を実行するか否かを判定する。ここで、物体の位置や速度の推定を求める方法はどのような方法であってもよい。例えば、前回検出した物体の輝度情報と今回検出した物体の輝度情報との一致度を計算して、時系列に撮影された画像中の物体が同一物体であるかどうかを判定し、同一物体の時系列の位置変化を解析することにより、速度推定を行ってもよい。
Whether or not the process
[情報提示処理]
ステップS1007で情報提示部130は、提供情報処理部122において設定された情報の提示を行い、この提示によって、運転支援装置が搭載される車両の走行に関する安全確認を喚起する。
[Information presentation process]
In step S <b> 1007, the
以上のように本実施の形態によれば、運転支援装置100において、不適視差値画素領域特定部114が、視差値を所定時間内に算出できない画素及び上限値を超える視差値が得られる画素を含む不適視差値画素領域を特定し、近傍物体画像候補特定部115が、不適視差値画素領域と近傍物体対応画素領域とのオーバラップ画素領域を特定するとともに当該オーバラップ画素領域に基づいて近傍物体画像候補を特定し、喚起・制御部120が、特定された近傍物体画像候補に基づいて、安全確認の喚起又は自車両の運転状態の制御を行う。
As described above, according to the present embodiment, in the driving
こうすることにより、不適視差値画素領域と近傍物体対応画素領域とを用いて、自車両の近傍物体を簡単に検出することができる。 By doing so, it is possible to easily detect the nearby object of the host vehicle using the inappropriate parallax value pixel region and the nearby object corresponding pixel region.
ここで上記従来技術では、運転支援装置100と同様に、算出した視差値を用いて物体検出を行うものの、視差値を求めることができなかった画素情報を物体検出に利用する視点が全くない。従って、上記従来技術では、近傍物体を検出するために、追加的に至近距離算出プログラムを実行する必要がある。
Here, in the related art, as in the driving
これに対して、運転支援装置100では、従来物体検出に用いられずに捨てられていた不適視差値が得られる画素の情報を利用して、自車両の近傍物体を検出する。従って、従来技術で必要とされる追加的処理を実行することが不要となるため、迅速に近傍物体を検出することができる。また、一タイミングにおける画像情報からそのタイミングに存在する近傍物体を検出することができるので、走行車両の直前に突然現れる物体であっても精度良く検出することができる。
On the other hand, the driving
こうして運転支援装置100は、走行車両の直前に突然現れる物体であってもより精度良く且つ迅速に検出でき、この検出結果に基づいて安全確認の喚起又は自車両の運転状態の制御を行うので、走行車両の安全性を確保することができる。
In this way, the driving
(実施の形態2)
実施の形態2では、上記したオーバラップ部分の形状を解析し、解析結果に応じてオーバラップ部分を衝突回避対象物体の画像候補として使用する。図7は、本発明の実施の形態2における運転支援装置200の構成を示すブロック図である。
(Embodiment 2)
In the second embodiment, the shape of the overlap portion described above is analyzed, and the overlap portion is used as an image candidate for the collision avoidance target object according to the analysis result. FIG. 7 is a block diagram showing the configuration of the driving
図7において運転支援装置200は、物体検出装置210を有する。物体検出装置210は、近傍物体画像候補特定部211を有する。
In FIG. 7, the driving
近傍物体画像候補特定部211は、不適視差値画素領域と近傍物体対応領域とのオーバラップ部分に対応する画素識別データ、及びこれに対応する視差値データを抽出する。具体的には、近傍物体画像候補特定部211は、閉じた画素領域ごとに、両データを抽出する。これにより、上記オーバラップ部分は、閉じた画素領域ごとにグルーピングされる。
The nearby object image
すなわち、図8において、いずれも上記オーバラップ部分に含まれる、D3及びD4で示される2つの領域は、別グループにグルーピングされる。こうしてグルーピングされた領域を、以下では「グループ領域」と呼ぶことがある。 That is, in FIG. 8, the two areas indicated by D3 and D4 that are both included in the overlap portion are grouped into different groups. Hereinafter, the grouped area may be referred to as a “group area”.
そして、近傍物体画像候補特定部211は、上記オーバラップ部分の形状を解析する。すなわち、近傍物体画像候補特定部211は、上記オーバラップ部分の面積、幅、高さ、長軸半径、短軸半径、凸度、及びモーメントのうち少なくとも1つを解析する。この解析は、グループ領域ごとに行われる。
Then, the near object image
そして、近傍物体画像候補特定部211は、解析結果が近傍物体判定基準を満たしているときに、解析対象のグループ領域を衝突回避対象物体の画像候補とする。
Then, when the analysis result satisfies the near object determination criterion, the near object image
図9は、面積、幅、及び高さが解析パラメータとして用いられる場合の形状解析フロー図を示す。 FIG. 9 shows a shape analysis flow diagram when the area, width, and height are used as analysis parameters.
ここでは、面積、幅、及び高さのすべてが各解析パラメータについて定められた閾値(既定値)以上である場合には、解析対象のグループ領域は、衝突回避対象物体の画像候補であると判定される。 Here, when all of the area, width, and height are equal to or greater than the threshold value (predetermined value) determined for each analysis parameter, it is determined that the analysis target group region is an image candidate for the collision avoidance target object. Is done.
一方、面積、幅、及び高さのうち、1つでも閾値未満である場合には、解析対象のグループ領域は、衝突回避対象物体の画像候補でないと判定される。 On the other hand, if at least one of the area, width, and height is less than the threshold value, it is determined that the group region to be analyzed is not an image candidate for the collision avoidance target object.
以上のように本実施の形態によれば、近傍物体画像候補特定部211が、オーバラップ画素領域の面積、幅、高さ、長軸半径、短軸半径、凸度、及びモーメントのうち少なくとも1つを解析パラメータとして算出し、当該算出した値が解析パラメータごとに設定された近傍物体画像判定閾値以上であるときに、オーバラップ部分を近傍物体画像候補として特定する。
As described above, according to the present embodiment, the near object image
こうすることにより、例えば、視差値の算出エラーが起こり不適視差値が求められた場合であっても、不適視差値が求められる画素が少数で局所的に存在する場合には、その画素を近傍物体画像候補から除くことができる。従って、より精度良く近傍物体画像候補を特定することができる。 By doing this, for example, even when a parallax value calculation error occurs and an inappropriate parallax value is obtained, if there are a small number of pixels for which the inappropriate parallax value is found locally, the pixel is It can be excluded from object image candidates. Therefore, it is possible to specify the near object image candidate with higher accuracy.
(実施の形態3)
実施の形態3では、上記したオーバラップ部分の輝度を評価し、評価結果に応じてオーバラップ部分を衝突回避対象物体の画像候補として使用する。図10は、本発明の実施の形態3における運転支援装置300の構成を示すブロック図である。
(Embodiment 3)
In the third embodiment, the luminance of the overlap portion described above is evaluated, and the overlap portion is used as an image candidate for the collision avoidance target object according to the evaluation result. FIG. 10 is a block diagram showing the configuration of the driving
図10において運転支援装置300は、物体検出装置310を有する。物体検出装置310は、近傍物体画像候補特定部311と、輝度評価部312とを有する。
In FIG. 10, the driving
近傍物体画像候補特定部311は、不適視差値画素領域と近傍物体対応領域とのオーバラップ部分に対応する画素識別データ、及びこれに対応する視差値データを抽出する。具体的には、近傍物体画像候補特定部311は、閉じた画素領域ごとに、両データを抽出する。これにより、上記オーバラップ部分は、閉じた画素領域ごとにグルーピングされる。
The nearby object image
すなわち、図11において、いずれも上記オーバラップ部分に含まれる、D3及びD5で示される2つの領域は、別グループにグルーピングされる。 That is, in FIG. 11, the two areas indicated by D3 and D5, both included in the overlap portion, are grouped into different groups.
近傍物体画像候補特定部311は、輝度評価部312が各グループ領域に関して行う輝度評価の結果が、近傍物体判定基準を満たしているときに、その評価対象のグループ領域を衝突回避対象物体の画像候補とする。
When the result of the luminance evaluation performed by the
輝度評価部312は、画像取得部111からステレオ画像情報を取得するとともに、近傍物体画像候補特定部311で特定されたグループ領域に関する情報を取得する。輝度評価部312は、各グループ領域に対応する、ステレオ画像中の輝度評価対象領域(図12参照)の輝度を求め、その輝度評価対象領域における輝度のばらつき度を評価する。
The
ここでは輝度評価部312は、輝度評価対象領域に対して評価領域フレームf401を適用し、そのフレームが適用された領域を抽出し、この抽出領域の輝度を評価する。
Here, the
ここで衝突回避対象物体となるような物体について輝度を測定すると、輝度のばらつき度は大きくなる一方、路面などについて輝度を測定すると、輝度のばらつき度は小さい。 Here, when the luminance is measured for an object that is a collision avoidance target object, the degree of variation in luminance increases, whereas when the luminance is measured for a road surface or the like, the degree of variation in luminance is small.
そこで輝度評価部312は、衝突回避対象物体を判定するための、輝度ばらつき度閾値を予め保持しており、上記抽出領域における輝度のばらつき度が閾値以上であるときには、その領域が衝突回避対象物体に対応するものと評価する。
Therefore, the
一方、上記抽出領域における輝度のばらつき度が閾値未満である場合には、輝度評価部312は、その抽出対象に対応するグループ領域が衝突回避対象物体に対応しないものと評価する。
On the other hand, when the variation degree of the luminance in the extraction area is less than the threshold, the
図12の下方には、各輝度評価対象領域から抽出された領域の輝度が示されている。これを見て分かるように、D3に対応する輝度評価対象領域では、輝度のばらつき度が大きい。一方、D5に対応する輝度評価対象領域では、輝度のばらつき度が小さい。 In the lower part of FIG. 12, the luminances of the regions extracted from the respective luminance evaluation target regions are shown. As can be seen from this, in the luminance evaluation target region corresponding to D3, the luminance variation degree is large. On the other hand, in the luminance evaluation target region corresponding to D5, the luminance variation degree is small.
すなわち、この場合には、D5に対応する輝度評価対象領域は、衝突回避対象物体に対応する領域であると判断される。 That is, in this case, it is determined that the luminance evaluation target region corresponding to D5 is a region corresponding to the collision avoidance target object.
このように各グループ領域の輝度評価を行うことにより、衝突回避対象物体をより精度良く検出することができる。 By performing the luminance evaluation of each group area in this way, the collision avoidance target object can be detected with higher accuracy.
以上のように本実施の形態によれば、輝度評価部312が、オーバラップ部分における輝度のばらつき度を評価し、近傍物体画像候補特定部311が、ばらつき度が物体判定閾値以上であるときに、オーバラップ部分を近傍物体画像候補として特定する。
As described above, according to the present embodiment, the
こうすることにより、衝突回避対象物体ではない、例えば路面など衝突回避物体とは成り得ない物体が映し出された画素で不適視差値が求められた場合であっても、輝度のばらつき度によってその画素を近傍物体画像候補から除くことができる。従って、より精度良く近傍物体画像候補を特定することができる。 By doing this, even if an inappropriate parallax value is obtained for a pixel that is not a collision avoidance object, for example, an object that cannot be a collision avoidance object such as a road surface, the pixel is determined depending on the degree of variation in luminance. Can be excluded from the nearby object image candidates. Therefore, it is possible to specify the near object image candidate with higher accuracy.
なお、本実施の形態の輝度評価処理は、実施の形態2に適用することができる。すなわち、近傍物体画像候補特定部が、オーバラップ画素領域の面積、幅、高さ、長軸半径、短軸半径、凸度、及びモーメントのうち少なくとも1つを解析パラメータとして算出し、当該算出した値が解析パラメータごとに設定された近傍物体画像判定閾値以上であり、且つ、輝度のばらつき度が物体判定閾値以上であるときに、オーバラップ部分を近傍物体画像候補として特定してもよい。 Note that the luminance evaluation processing according to the present embodiment can be applied to the second embodiment. That is, the near object image candidate specifying unit calculates at least one of the area, width, height, major axis radius, minor axis radius, convexity, and moment of the overlapping pixel region as an analysis parameter, and calculates When the value is equal to or greater than the near object image determination threshold set for each analysis parameter and the luminance variation is equal to or greater than the object determination threshold, the overlap portion may be specified as the near object image candidate.
(実施の形態4)
実施の形態1乃至3では、近傍物体画像候補特定部115で衝突回避対象物体の画像候補が特定されれば、運転者に対して安全確認の喚起又は車両の運転状態の制御を実行する。これに対して、実施の形態4では、喚起・制御部が、衝突回避対象物体の画像候補を用いて物体種別を判別し、この判別結果に応じて運転者に対して安全確認の喚起又は車両の運転状態の制御を実行する。
(Embodiment 4)
In the first to third embodiments, if the near object image
すなわち、処理実行判定部121は、近傍物体画像候補特定部115(211、311)で特定された衝突回避対象物体の画像候補を用いて物体種別を判別する。
That is, the process
例えば、処理実行判定部121は、物体種別に応じた形状テンプレート(例えば、人の形状など)を保持し、近傍物体画像候補特定部115(211、311)で特定された衝突回避対象物体の画像候補と、形状テンプレートとの一致度を算出して、一定レベル以上一致する場合には、衝突回避対象物体の画像候補が形状テンプレートに対応する種別の物体であると判別する。そして、その物体種別が衝突回避対象物体である場合に、処理実行判定部121は、運転者に対して安全確認の喚起又は車両の運転状態の制御を実行すると判定する。なお、形状テンプレートは、予め用意したものを固定的に用いてもよいし、判別処理を繰り返す中で学習機能により修正を加えることもできる。
For example, the process
本発明の走行情報提供装置は、走行車両の直前に突然現れる物体であってもより精度良く且つ迅速に検出して、走行車両の安全性を確保するものとして有用である。 The travel information providing apparatus of the present invention is useful for ensuring the safety of a traveling vehicle by detecting an object suddenly appearing immediately before the traveling vehicle more accurately and quickly.
100,200,300 運転支援装置
110,210,310 物体検出装置
111 画像取得部
112 視差情報生成部
113 遠方物体検出部
114 不適視差値画素領域特定部
115,211,311 近傍物体画像候補特定部
116 近傍物体対応領域記憶部
120 喚起・制御部
121 処理実行判定部
122 提供情報処理部
130 情報提示部
312 輝度評価部
100, 200, 300
Claims (5)
前記基準画像及び前記比較画像を用いてステレオマッチング処理を行うことにより、前記基準画像を構成する画素ごとに前記比較画像との視差値を算出する視差値算出手段と、
前記視差値算出手段で得られた算出結果に基づいて、前記視差値を所定時間内に算出できない画素及び上限値を超える視差値が得られる画素を含む不適視差値画素領域を特定する特定手段と、
前記第1及び第2のカメラの近傍に存在する被撮影物体の画像が現れる画素群からなる近傍物体対応画素領域に関する情報を記憶する記憶手段と、
前記不適視差値画素領域と前記近傍物体対応画素領域とのオーバラップ画素領域を特定し、当該オーバラップ画素領域に基づいて近傍物体画像候補を特定する近傍物体画像候補特定手段と、
前記特定された近傍物体画像候補に基づいて、安全確認の喚起又は自車両の運転状態の制御を行う喚起・制御手段と、
を具備する走行情報提供装置。 Stereo image acquisition means for acquiring a reference image and a comparison image captured by a first camera and a second camera disposed in the mounted vehicle;
A parallax value calculating means for calculating a parallax value with the comparison image for each pixel constituting the reference image by performing a stereo matching process using the reference image and the comparison image;
A specifying unit for specifying an inappropriate parallax value pixel region including a pixel for which the parallax value cannot be calculated within a predetermined time and a pixel for which a parallax value exceeding an upper limit value is obtained based on a calculation result obtained by the parallax value calculating unit; ,
Storage means for storing information relating to a neighboring object corresponding pixel region composed of a pixel group in which an image of an object to be photographed existing in the vicinity of the first and second cameras appears;
A neighboring object image candidate identifying unit that identifies an overlapping pixel area between the inappropriate parallax value pixel area and the neighboring object corresponding pixel area, and identifies a neighboring object image candidate based on the overlapping pixel area;
Based on the identified nearby object image candidate, arousal / control means for arousing safety confirmation or controlling the driving state of the host vehicle,
A travel information providing apparatus comprising:
請求項1に記載の走行情報提供装置。 The near object image candidate specifying means calculates at least one of the area, width, height, major axis radius, minor axis radius, convexity, and moment of the overlapping pixel region as an analysis parameter, and calculates When the value is equal to or greater than a neighboring object image determination threshold set for each analysis parameter, the overlapping pixel region is identified as the neighboring object image candidate.
The travel information providing apparatus according to claim 1.
前記近傍物体画像候補特定手段は、前記ばらつき度が物体判定閾値以上であるときに、前記オーバラップ画素領域を前記近傍物体画像候補として特定する、
請求項1に記載の走行情報提供装置。 Comprising a luminance evaluation means for evaluating the degree of variation in luminance in the overlap pixel region;
The nearby object image candidate specifying means specifies the overlap pixel region as the nearby object image candidate when the degree of variation is equal to or greater than an object determination threshold.
The travel information providing apparatus according to claim 1.
前記近傍物体画像候補特定手段は、
前記オーバラップ画素領域の面積、幅、高さ、長軸半径、短軸半径、凸度、及びモーメントのうち少なくとも1つを解析パラメータとして算出し、
当該算出した値が解析パラメータごとに設定された近傍物体画像判定閾値以上であり、且つ、前記ばらつき度が物体判定閾値以上であるときに、前記オーバラップ画素領域を前記近傍物体画像候補として特定する、
請求項1に記載の走行情報提供装置。 Comprising a luminance evaluation means for evaluating the degree of variation in luminance in the overlap pixel region;
The nearby object image candidate specifying means includes:
Calculating at least one of the area, width, height, major axis radius, minor axis radius, convexity, and moment of the overlapping pixel region as an analysis parameter;
When the calculated value is equal to or greater than the near object image determination threshold set for each analysis parameter and the degree of variation is equal to or greater than the object determination threshold, the overlap pixel region is specified as the near object image candidate. ,
The travel information providing apparatus according to claim 1.
請求項1から請求項4のいずれかに記載の走行情報提供装置。 The arousing / control means holds a shape template corresponding to the object type, determines an object type based on a shape matching degree between the specified nearby object image candidate and the shape template, and determines the determined object type. Depending on the safety confirmation or control of the driving state of the vehicle,
The travel information providing device according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008126038A JP2009276906A (en) | 2008-05-13 | 2008-05-13 | Travelling information providing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008126038A JP2009276906A (en) | 2008-05-13 | 2008-05-13 | Travelling information providing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009276906A true JP2009276906A (en) | 2009-11-26 |
Family
ID=41442304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008126038A Pending JP2009276906A (en) | 2008-05-13 | 2008-05-13 | Travelling information providing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009276906A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012147329A1 (en) * | 2011-04-28 | 2012-11-01 | パナソニック株式会社 | Stereoscopic intensity adjustment device, stereoscopic intensity adjustment method, program, integrated circuit, and recording medium |
JP2013186902A (en) * | 2012-03-07 | 2013-09-19 | Ricoh Co Ltd | Vehicle detection method and apparatus |
JP2016024685A (en) * | 2014-07-22 | 2016-02-08 | 日立建機株式会社 | Work vehicle for mine |
WO2017090705A1 (en) * | 2015-11-27 | 2017-06-01 | Necソリューションイノベータ株式会社 | Image processing device, image processing method and computer-readable recording medium |
WO2021245973A1 (en) * | 2020-06-05 | 2021-12-09 | 日立Astemo株式会社 | Computation device and parallax search method |
JP7384147B2 (en) | 2020-11-30 | 2023-11-21 | トヨタ自動車株式会社 | Target object detection device and vehicle equipped with it |
-
2008
- 2008-05-13 JP JP2008126038A patent/JP2009276906A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012147329A1 (en) * | 2011-04-28 | 2012-11-01 | パナソニック株式会社 | Stereoscopic intensity adjustment device, stereoscopic intensity adjustment method, program, integrated circuit, and recording medium |
JP6002043B2 (en) * | 2011-04-28 | 2016-10-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Stereoscopic intensity adjusting device, stereoscopic intensity adjusting method, program, integrated circuit, recording medium |
JP2013186902A (en) * | 2012-03-07 | 2013-09-19 | Ricoh Co Ltd | Vehicle detection method and apparatus |
JP2016024685A (en) * | 2014-07-22 | 2016-02-08 | 日立建機株式会社 | Work vehicle for mine |
WO2017090705A1 (en) * | 2015-11-27 | 2017-06-01 | Necソリューションイノベータ株式会社 | Image processing device, image processing method and computer-readable recording medium |
JPWO2017090705A1 (en) * | 2015-11-27 | 2018-09-20 | Necソリューションイノベータ株式会社 | Image processing apparatus, image processing method, and program |
WO2021245973A1 (en) * | 2020-06-05 | 2021-12-09 | 日立Astemo株式会社 | Computation device and parallax search method |
JP7384147B2 (en) | 2020-11-30 | 2023-11-21 | トヨタ自動車株式会社 | Target object detection device and vehicle equipped with it |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5421072B2 (en) | Approaching object detection system | |
JP4420011B2 (en) | Object detection device | |
CN106647776B (en) | Method and device for judging lane changing trend of vehicle and computer storage medium | |
JP6416293B2 (en) | Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car | |
KR20150051735A (en) | Parking Guide System and the Method | |
JP6450294B2 (en) | Object detection apparatus, object detection method, and program | |
JP2008219063A (en) | Apparatus and method for monitoring vehicle's surrounding | |
WO2018116841A1 (en) | Object detection device | |
JP7009042B2 (en) | A device that can operate to determine the position of a part of the lane | |
US20150235093A1 (en) | Moving Object Recognition Apparatus | |
JP2005202678A (en) | Traveling support device | |
KR20160075135A (en) | Vehicle System for Detecting Objects and Detecting Method | |
JP6129268B2 (en) | Vehicle driving support system and driving support method | |
JP2009276906A (en) | Travelling information providing device | |
KR20060021922A (en) | Two camera based obstacle detection method and device | |
JP2018048949A (en) | Object recognition device | |
JP2018060422A (en) | Object detection device | |
JP2007309799A (en) | On-board distance measuring apparatus | |
KR20180063524A (en) | Method and Apparatus for Detecting Risk of Forward Vehicle Using Virtual Lane | |
JP2008310440A (en) | Pedestrian detection device | |
JP6115429B2 (en) | Own vehicle position recognition device | |
KR101721442B1 (en) | Avoiding Collision Systemn using Blackbox Rear Camera for vehicle and Method thereof | |
JP2011103058A (en) | Erroneous recognition prevention device | |
KR20120086962A (en) | System and method for detecting distance between forward vehicle using image in navigation for vehicle | |
KR20160133386A (en) | Method of Avoiding Collision Systemn using Blackbox Rear Camera for vehicle |