JP2015225546A - Object detection device, drive support apparatus, object detection method, and object detection program - Google Patents

Object detection device, drive support apparatus, object detection method, and object detection program Download PDF

Info

Publication number
JP2015225546A
JP2015225546A JP2014110527A JP2014110527A JP2015225546A JP 2015225546 A JP2015225546 A JP 2015225546A JP 2014110527 A JP2014110527 A JP 2014110527A JP 2014110527 A JP2014110527 A JP 2014110527A JP 2015225546 A JP2015225546 A JP 2015225546A
Authority
JP
Japan
Prior art keywords
vehicle
feature line
feature
object detection
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014110527A
Other languages
Japanese (ja)
Other versions
JP6139465B2 (en
Inventor
忠彦 加納
Tadahiko Kano
忠彦 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2014110527A priority Critical patent/JP6139465B2/en
Publication of JP2015225546A publication Critical patent/JP2015225546A/en
Application granted granted Critical
Publication of JP6139465B2 publication Critical patent/JP6139465B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object detection device, a drive support apparatus, an object detection method, and an object detection program, which enable accurate recognition of another vehicle entering a travel lane of a vehicle itself.SOLUTION: An object detection device includes: an imaging part for imaging a surrounding of a vehicle itself; a characteristic line extraction part for extracting first and second characteristic lines from an image picked up by the imaging part, where the first characteristic line is estimated as representing a side lower edge portion of another vehicle and the second characteristic line is estimated as representing a front edge portion of the other vehicle and has an inclination different from the first characteristic line on the image; and a determination part for determining an event of the other vehicle entering a travel road of the vehicle itself on the basis of an intersection between the first and second characteristic lines.

Description

本発明は、物体検出装置、運転支援装置、物体検出方法、および物体検出プログラムに関する。   The present invention relates to an object detection device, a driving support device, an object detection method, and an object detection program.

自車に設置され、自車の前方の道路状況を撮影する撮影手段と、撮影手段により撮影された画像状況を基に、自車が走行している自車レーンと自車レーンに隣接した隣接レーンとの境界線を検出する境界線検出手段と、撮影手段により撮影された画像状況を基に、隣接レーンを走行している隣接先行車両を認識し、隣接先行車両の進行形態を検出する車両検出手段と、境界線検出手段と車両検出手段との検出結果を基に、境界線に対する隣接先行車両の進行方向の傾きを検出する傾き角検出手段と、境界線に対する隣接先行車両の進行方向の傾き角の大きさに基づいて、隣接先行車両は自車レーンに割り込もうとしている割込車であるか否かを判断する割込車判断手段を備えたことを特徴とする車両認識装置が知られている(例えば、特許文献1参照)。   Based on the shooting means that is installed in the vehicle and shoots the road conditions ahead of the vehicle, and the image lane that is taken by the shooting means, the vehicle lane in which the vehicle is traveling and the adjacent to the vehicle lane Boundary line detecting means for detecting a boundary line with a lane, and a vehicle for recognizing an adjacent preceding vehicle traveling in an adjacent lane and detecting a traveling form of the adjacent preceding vehicle based on an image situation photographed by the photographing means Based on the detection results of the detection means, the boundary line detection means and the vehicle detection means, an inclination angle detection means for detecting the inclination of the traveling direction of the adjacent preceding vehicle relative to the boundary line, and the traveling direction of the adjacent preceding vehicle relative to the boundary line What is claimed is: 1. A vehicle recognition apparatus comprising: an interrupting vehicle determining means for determining whether an adjacent preceding vehicle is an interrupting vehicle that is about to interrupt an own vehicle lane based on an inclination angle Known (eg patent text Reference 1).

特開平9−223235号公報JP-A-9-223235

しかしながら、従来の装置では、自車両の走行車線への他車両の進入を精度良く認識することができない場合があった。境界線に対する隣接先行車両の進行方向の傾き角を監視するだけでは、他車両のふらつきのみでも割り込みと誤判定してしまう場合があるからである。
本発明は、このような事情を考慮してなされたものであり、自車両の走行車線への他車両の進入を精度良く認識することができる物体検出装置、運転支援装置、物体検出方法、および物体検出プログラムを提供することを目的の一つとする。
However, in the conventional apparatus, there is a case where the approach of another vehicle to the traveling lane of the own vehicle cannot be recognized with high accuracy. This is because simply monitoring the inclination angle of the adjacent preceding vehicle with respect to the boundary line may erroneously determine an interruption even if the other vehicle fluctuates.
The present invention has been made in consideration of such circumstances, and an object detection device, a driving support device, an object detection method, and an object detection method capable of accurately recognizing the entry of another vehicle into the traveling lane of the host vehicle, and An object is to provide an object detection program.

請求項1記載の発明は、自車両周辺を撮像する撮像部(10)と、前記撮像部により撮像された画像から、他車両の側方下端部を表すと推定される第1の特徴線と、前記他車両の前端部を表すと推定される第2の特徴線であって前記第1の特徴線と画像上の傾きが異なる第2の特徴線とを抽出する特徴線抽出部(21、22、23、24、25、30、31)と、前記第1の特徴線と前記第2の特徴線との交点に基づいて、自車両の走行車線への他車両の進入を判定する判定部(40、41、42)と、を備える物体検出装置(5)である。   The invention according to claim 1 is an imaging unit (10) that images the periphery of the host vehicle, and a first characteristic line that is estimated to represent a side lower end of another vehicle from an image captured by the imaging unit. , A feature line extraction unit (21, which extracts a second feature line that is estimated to represent a front end portion of the other vehicle and has a different inclination on the image from the first feature line. 22, 23, 24, 25, 30, 31) and a determination unit that determines the approach of another vehicle into the traveling lane of the host vehicle based on the intersection of the first feature line and the second feature line (40, 41, 42).

請求項2記載の発明は、請求項1記載の物体検出装置であって、前記判定部は、前記交点の位置が、前記撮像部により撮像された画像から認識可能な前記自車両の走行車線または進行予定軌跡に接近し、接触し、または進入するのに応じて、前記自車両の走行車線への他車両の進入を判定するものである。   Invention of Claim 2 is the object detection apparatus of Claim 1, Comprising: The said determination part is the travel lane of the said own vehicle from which the position of the said intersection can be recognized from the image imaged by the said imaging part, or In response to approaching, touching, or entering the scheduled travel path, the approach of another vehicle to the traveling lane of the host vehicle is determined.

請求項3記載の発明は、請求項1または2記載の物体検出装置であって、前記撮像部により撮像された画像から特徴点を抽出する特徴点抽出部(21)を備え、前記特徴線抽出部は、前記特徴点抽出部により異なる撮像フレームの画像から抽出された特徴点の間で、同一の物体を表すと推定される特徴点の組を抽出し、前記特徴点の組を結んで生成される直線と略同方向である特徴線を、前記第1の特徴線として選択するものである。   The invention according to claim 3 is the object detection device according to claim 1 or 2, further comprising a feature point extraction unit (21) that extracts a feature point from an image captured by the imaging unit, and the feature line extraction The unit extracts a set of feature points estimated to represent the same object between the feature points extracted from images of different imaging frames by the feature point extraction unit, and generates the combination of the feature points A feature line that is substantially in the same direction as the straight line is selected as the first feature line.

請求項4記載の発明は、請求項1から3のうちいずれか1項に記載の物体検出装置であって、前記特徴線抽出部は、複数の第2の特徴線候補が存在する場合、前記複数の第2の特徴線候補の中から、前記撮像部により撮像された画像から認識可能な前記自車両の走行車線に最も近い第2の特徴線候補を、前記第2の特徴線として選択するものである。   Invention of Claim 4 is an object detection apparatus of any one of Claim 1 to 3, Comprising: The said feature line extraction part WHEREIN: When the several 2nd feature line candidate exists, From among a plurality of second feature line candidates, a second feature line candidate closest to the traveling lane of the host vehicle that can be recognized from the image captured by the imaging unit is selected as the second feature line. Is.

請求項5記載の発明は、請求項1から4のうちいずれか1項に記載の物体検出装置と、前記判定部の判定結果に基づいて前記車両の運転支援を行う運転支援部と、を備える運転支援装置(1)である。   A fifth aspect of the invention includes the object detection device according to any one of the first to fourth aspects, and a driving support unit that supports driving of the vehicle based on a determination result of the determination unit. It is a driving assistance device (1).

請求項6記載の発明は、自車両周辺を撮像する撮像部と、前記撮像部により撮像された画像から、第1の特徴線と、前記第1の特徴線と画像上の傾きが異なる第2の特徴線とを抽出する特徴線抽出部と、前記第1の特徴線と前記第2の特徴線との交点に基づいて、自車両の走行車線への他車両の進入を判定する判定部と、を備える物体検出装置である。   According to a sixth aspect of the present invention, there is provided an imaging unit that captures an image of the periphery of the host vehicle, and an image captured by the imaging unit. A feature line extraction unit that extracts a feature line of the vehicle, a determination unit that determines an approach of another vehicle to the traveling lane of the host vehicle based on an intersection of the first feature line and the second feature line, , An object detection apparatus.

請求項7記載の発明は、物体検出装置が、自車両周辺を撮像し、前記撮像された画像から、他車両の側方下端部を表すと推定される第1の特徴線と、前記他車両の前端部を表すと推定される第2の特徴線であって前記第1の特徴線と画像上の傾きが異なる第2の特徴線とを抽出し、前記第1の特徴線と前記第2の特徴線との交点に基づいて、自車両の走行車線への他車両の進入を判定する、物体検出方法である。   According to the seventh aspect of the present invention, the object detection device captures an image of the periphery of the own vehicle, and the first feature line is estimated from the captured image to represent a side lower end of the other vehicle, and the other vehicle. A second feature line estimated to represent the front end of the first feature line and a second feature line having a different inclination on the image are extracted, and the first feature line and the second feature line are extracted. This is an object detection method for determining the approach of another vehicle to the traveling lane of the host vehicle based on the intersection with the feature line.

請求項8記載の発明は、物体検出装置の制御コンピュータに、自車両周辺を撮像した画像から、他車両の側方下端部を表すと推定される第1の特徴線と、前記他車両の前端部を表すと推定される第2の特徴線であって前記第1の特徴線と画像上の傾きが異なる第2の特徴線とを抽出させ、前記第1の特徴線と前記第2の特徴線との交点に基づいて、自車両の走行車線への他車両の進入を判定させる、物体検出プログラムである。   According to an eighth aspect of the present invention, the control computer of the object detection apparatus has a first characteristic line estimated to represent a side lower end portion of another vehicle from an image obtained by imaging the periphery of the own vehicle, and a front end of the other vehicle. And extracting the first feature line and the second feature line that are different from the first feature line and having a different inclination on the image. This is an object detection program for determining the approach of another vehicle to the traveling lane of the host vehicle based on the intersection with the line.

請求項1、7,8に記載の発明によれば、特徴線抽出部が、他車両の側方下端部を表すと推定される第1の特徴線と、他車両の前端部を表すと推定される第2の特徴線であって第1の特徴線と画像上の傾きが異なる第2の特徴線とを抽出し、判定部が、第1の特徴線と前記第2の特徴線との交点に基づいて、自車両の走行車線への他車両の進入を判定するため、自車両の走行車線への他車両の進入を精度良く認識することができる。   According to the first, seventh, and eighth aspects of the invention, the feature line extraction unit is estimated to represent the first feature line that is estimated to represent the side lower end portion of the other vehicle and the front end portion of the other vehicle. A second feature line that is different from the first feature line and having a different inclination on the image, and the determination unit determines whether the first feature line and the second feature line are Since the approach of the other vehicle to the traveling lane of the host vehicle is determined based on the intersection, the approach of the other vehicle to the traveling lane of the host vehicle can be accurately recognized.

請求項2に記載の発明によれば、判定部は、交点の位置が、撮像部により撮像された画像から認識可能な自車両の走行車線または進行予定軌跡に接近し、接触し、または進入するのに応じて、自車両の走行車線への他車両の進入を判定するため、自車両の走行車線への他車両の進入を、更に精度良く認識することができる。   According to the second aspect of the present invention, the determination unit approaches, touches, or enters the travel lane or the planned travel path of the host vehicle whose position of the intersection is recognizable from the image captured by the imaging unit. Accordingly, since the approach of the other vehicle to the traveling lane of the host vehicle is determined, the approach of the other vehicle to the traveling lane of the host vehicle can be recognized with higher accuracy.

請求項3に記載の発明によれば、特徴線抽出部は、特徴点抽出部により異なる撮像フレームの画像から抽出された特徴点の間で、同一の物体を表すと推定される特徴点の組を抽出し、特徴点の組を結んで生成される直線と略同方向である第1の特徴線を、他車両の側方下端部を表すものとして選択するため、より精度良く第1の特徴線を抽出することができる。これにより、自車両の走行車線への他車両の進入を、更に精度良く認識することができる。   According to the invention described in claim 3, the feature line extraction unit is a set of feature points estimated to represent the same object between the feature points extracted from images of different imaging frames by the feature point extraction unit. And the first feature line that is substantially in the same direction as the straight line generated by connecting the set of feature points is selected as the one that represents the side lower end of the other vehicle. Lines can be extracted. Thereby, the approach of the other vehicle to the traveling lane of the own vehicle can be recognized with higher accuracy.

請求項4に記載の発明によれば、特徴点抽出部は、複数の第2特徴線候補の中から、撮像部により撮像された画像から認識可能な自車両の走行車線に最も近い第2の特徴線候補を、第2の特徴線として選択することで、より精度良く第2の特徴線を抽出することができる。これにより、自車両の走行車線への他車両の進入を、更に精度良く認識することができる。   According to the fourth aspect of the present invention, the feature point extraction unit is the second closest to the traveling lane of the host vehicle that can be recognized from the image captured by the imaging unit among the plurality of second feature line candidates. By selecting the feature line candidate as the second feature line, the second feature line can be extracted with higher accuracy. Thereby, the approach of the other vehicle to the traveling lane of the own vehicle can be recognized with higher accuracy.

請求項5に記載の発明によれば、物体検出装置によって精度良く認識された自車両の走行車線への他車両の進入に基づいて、好適な運転支援を行うことができる。   According to the fifth aspect of the present invention, it is possible to provide suitable driving assistance based on the approach of another vehicle to the traveling lane of the host vehicle recognized with high accuracy by the object detection device.

本発明の一実施形態に係る物体検出装置5を含む運転支援装置1の構成の一例を模式的に示す図である。It is a figure which shows typically an example of a structure of the driving assistance apparatus 1 containing the object detection apparatus 5 which concerns on one Embodiment of this invention. 物体検出装置5を含む運転支援装置1の機能構成例を示す図である。2 is a diagram illustrating an example of a functional configuration of a driving support device 1 including an object detection device 5. FIG. 撮像画像IM中の特徴点CPと消失点VPを例示した図である。It is the figure which illustrated feature point CP and vanishing point VP in captured image IM. 撮像画像IMを拡大して示す図であり、撮像画像IM中の隣接車両フローと、第1の特徴線と、第2の特徴線等を例示した図である。It is a figure which expands and shows captured image IM, and is the figure which illustrated the adjacent vehicle flow in the captured image IM, the 1st feature line, the 2nd feature line, etc. 複数の垂直エッジから隣接車両垂直エッジを選択する例を説明するための図である。It is a figure for demonstrating the example which selects an adjacent vehicle vertical edge from a some vertical edge. 本実施形態の制御装置20により実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process performed by the control apparatus 20 of this embodiment.

〔構成〕
以下、図面を参照し、本発明の一実施形態に係る物体検出装置5を含む運転支援装置1の実施形態について説明する。
図1は、本発明の一実施形態に係る物体検出装置5を含む運転支援装置1の構成の一例を模式的に示す図である。運転支援装置1は、例えば、自車両Mに搭載される装置であり、カメラ10と、制御装置20とを備える。以下、物体検出装置5が搭載される車両を「自車両」と称する。また、自車両の走行車線に対して隣接する車線を、自車両と同じ方向に走行している他車両を、「隣接車両」と称する。
〔Constitution〕
Hereinafter, an embodiment of a driving support device 1 including an object detection device 5 according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram schematically illustrating an example of a configuration of a driving support device 1 including an object detection device 5 according to an embodiment of the present invention. The driving support device 1 is a device mounted on the host vehicle M, for example, and includes a camera 10 and a control device 20. Hereinafter, a vehicle on which the object detection device 5 is mounted is referred to as “own vehicle”. Further, a lane adjacent to the traveling lane of the host vehicle is referred to as an “adjacent vehicle” that is traveling in the same direction as the host vehicle.

カメラ10は、例えば、フロントウインドシールドの上部やルームミラーの裏面等に取り付けられている。カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、例えば、所定周期で車両の前方を繰り返し撮像し、撮像した画像のデータを制御装置20に出力する。また、カメラ10は、制御装置20により抽出された特徴点や特徴線などの移動に応じて、カメラ10の姿勢を推定する。   The camera 10 is attached to the upper part of a front windshield, the back surface of a room mirror, etc., for example. The camera 10 is a digital camera using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). For example, the camera 10 repeatedly captures an image of the front of the vehicle at a predetermined period and outputs data of the captured image to the control device 20. In addition, the camera 10 estimates the posture of the camera 10 according to the movement of the feature points and feature lines extracted by the control device 20.

制御装置20は、例えば、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、フラッシュメモリ等の記憶装置、車内で他装置と通信を行うための通信インターフェース等が内部バスによって接続されたコンピュータ装置である。   The control device 20 includes, for example, a processor such as a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a flash, and the like. A computer device in which a storage device such as a memory, a communication interface for communicating with other devices in a vehicle, and the like are connected by an internal bus.

図2は、物体検出装置5を含む運転支援装置1の機能構成例を示す図である。物体検出装置5の制御装置20は、特徴点抽出部21と、特徴点対応判定部22と、姿勢推定処理部23と、隣接車両フロー抽出部24と、フローグループ化処理部25と、特徴線抽出部30と、隣接車両特徴線選択部31と、交点座標算出部40と、車両位置算出部41と、割り込み判定部42とを備える。また、これらの機能部は、例えば、プロセッサが記憶装置に格納されたプログラムを実行することにより機能するソフトウェア機能部である。これらの機能部は、適宜、統合または分割されてよい。プロセッサが実行するプログラムは、自車両Mの出荷時に予め記憶装置に格納されていてもよいし、可搬型記憶媒体に記憶されたプログラムが制御装置20の記憶装置にインストールされてもよい。また、プログラムは、車載インターネット設備によって他のコンピュータ装置からダウンロードされ、制御装置20の記憶装置にインストールされてもよい。また、上記機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。また、制御装置20は、車両制御部50と警告表示制御部52に接続される。車両制御部50と警告表示制御部52は、制御装置20と同じコンピュータの別機能であってもよいし、制御装置20とは別体のコンピュータの機能であってもよい。   FIG. 2 is a diagram illustrating a functional configuration example of the driving support device 1 including the object detection device 5. The control device 20 of the object detection device 5 includes a feature point extraction unit 21, a feature point correspondence determination unit 22, a posture estimation processing unit 23, an adjacent vehicle flow extraction unit 24, a flow grouping processing unit 25, and a feature line. An extraction unit 30, an adjacent vehicle feature line selection unit 31, an intersection coordinate calculation unit 40, a vehicle position calculation unit 41, and an interrupt determination unit 42 are provided. In addition, these functional units are software functional units that function, for example, when a processor executes a program stored in a storage device. These functional units may be integrated or divided as appropriate. The program executed by the processor may be stored in the storage device in advance when the host vehicle M is shipped, or the program stored in the portable storage medium may be installed in the storage device of the control device 20. Further, the program may be downloaded from another computer device by the in-vehicle Internet facility and installed in the storage device of the control device 20. Also, some or all of the functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit). The control device 20 is connected to the vehicle control unit 50 and the warning display control unit 52. The vehicle control unit 50 and the warning display control unit 52 may be functions of the same computer as the control device 20, or may be functions of a computer separate from the control device 20.

以下、図2を参照して、制御装置20の各機能部の機能について説明する。また、後述する図3、図4を参照して、特徴点、第1の特徴線、第2の特徴線、および、これらの交点について説明する。   Hereinafter, functions of the respective functional units of the control device 20 will be described with reference to FIG. The feature points, the first feature lines, the second feature lines, and their intersections will be described with reference to FIGS. 3 and 4 described later.

特徴点抽出部21は、カメラ10により撮像された画像(以下、「撮像画像」と称する)から特徴点を抽出する。特徴点とは、例えば、上下左右に隣接する画素の間の輝度勾配の例えば平均値が所定値よりも大きい画素であり、物体の角や線の交わりなど、時系列に撮像した画像データを対比したときに対応の取りやすい点である。特徴点を抽出する手法としては、Harris作用素やSUSAN作用素などの公知手法、あるいは新規の手法を適宜利用することができる。なお、特徴点抽出部21に相当する機能部は、カメラ10に内蔵または付設されるコンピュータ装置によって実現されてもよい。図3は、撮像画像IM中の特徴点CPと消失点VPを例示した図である。図示するように、特徴点CPは、検出対象物である自車両の周辺を走行する隣接車両OBの車体における縁部やコーナー部などから抽出されやすい傾向にある。   The feature point extraction unit 21 extracts feature points from an image captured by the camera 10 (hereinafter referred to as “captured image”). A feature point is, for example, a pixel whose average value of brightness gradient between adjacent pixels in the top, bottom, left, and right is larger than a predetermined value, and contrasts image data captured in time series such as intersections of objects and intersections of lines. It is easy to take correspondence when you do. As a technique for extracting feature points, a known technique such as a Harris operator or a SUSAN operator, or a new technique can be used as appropriate. The functional unit corresponding to the feature point extracting unit 21 may be realized by a computer device built in or attached to the camera 10. FIG. 3 is a diagram illustrating feature points CP and vanishing points VP in the captured image IM. As shown in the drawing, the feature point CP tends to be extracted from the edge or corner of the vehicle body of the adjacent vehicle OB traveling around the subject vehicle that is the detection target.

特徴点対応判定部22は、複数の撮像画像間(例えば、連続する2フレームの撮像画像間)で、特徴点抽出部21により抽出された特徴点の対応関係を判定する。特徴点対応判定部22は、特徴点抽出部21が抽出した前フレームの特徴点と、現フレームの特徴点とを対応づける。特徴点の対応関係を判定する方法として、前回のフレームで抽出した特徴点の周辺(例えば特徴点を中心として5×5画素や7×7画素程度)の画素群の輝度分布を求め、次の画像の同じ位置の周辺に、その輝度分布と同じ分布を持った画素群が無いかを探し、最も輝度分布が一致する画素群の中心を今回の特徴点として抽出するブロックマッチング手法を利用できる。また、公知技術であるKLT(Kanade Lucas Tomasi)追跡手法や、新規の手法を適宜利用できる。また、特徴点対応判定部22は、複数フレームに亘る画像の特徴点の対応関係に基づいて、特徴点の三次元座標を算出する。   The feature point correspondence determination unit 22 determines the correspondence between the feature points extracted by the feature point extraction unit 21 between a plurality of captured images (for example, between two consecutive frames of captured images). The feature point correspondence determination unit 22 associates the feature point of the previous frame extracted by the feature point extraction unit 21 with the feature point of the current frame. As a method for determining the correspondence between feature points, the luminance distribution of a pixel group around the feature points extracted in the previous frame (for example, about 5 × 5 pixels or 7 × 7 pixels around the feature points) is obtained. It is possible to use a block matching method that searches for a pixel group having the same distribution as the luminance distribution around the same position of the image and extracts the center of the pixel group having the most consistent luminance distribution as the current feature point. In addition, a known technique of KLT (Kanade Lucas Tomasi) tracking and a new technique can be used as appropriate. Further, the feature point correspondence determining unit 22 calculates the three-dimensional coordinates of the feature points based on the correspondence relationship between the feature points of the image over a plurality of frames.

図4は、撮像画像IMを拡大して示す図であり、撮像画像IM中の隣接車両フローと、第1の特徴線と、第2の特徴線等を例示した図である。図4の例では、異なる時間に撮像された隣接車両OBを、便宜的に1つのフレームで表している。隣接車両OB0は、時刻T0のときに撮像されたものであり、隣接車両OB1は、時刻T0よりも後の時刻T1のときに撮像されたものである。   FIG. 4 is an enlarged view of the captured image IM, and illustrates the adjacent vehicle flow, the first feature line, the second feature line, and the like in the captured image IM. In the example of FIG. 4, the adjacent vehicle OB captured at different times is represented by one frame for convenience. The adjacent vehicle OB0 is imaged at time T0, and the adjacent vehicle OB1 is imaged at time T1 after time T0.

図4におけるCPa0とCPb0は、時刻T0のときに撮像された隣接車両OB0の異なる箇所を表す特徴点である。また、図4におけるCPa1とCPb1は、時刻T1のときに撮像された隣接車両OB1の異なる箇所を表す特徴点である。特徴点CPa0とCPa1、特徴点CPb0とCPb1は、それぞれ隣接車両OBの同じ箇所を表す特徴点である。特徴点対応判定部22は、異なる撮像フレームの画像から抽出した特徴点の間で、同一の物体(或いは物体における特定の箇所)を表すと推定される特徴点の組を抽出する。図4の例では、特徴点対応判定部22は、特徴点CPa0とCPa1、特徴点CPb0とCPb1をそれぞれ対応づけ、組とする。   CPa0 and CPb0 in FIG. 4 are feature points representing different portions of the adjacent vehicle OB0 imaged at time T0. Further, CPa1 and CPb1 in FIG. 4 are characteristic points representing different portions of the adjacent vehicle OB1 imaged at time T1. The feature points CPa0 and CPa1 and the feature points CPb0 and CPb1 are feature points that represent the same part of the adjacent vehicle OB, respectively. The feature point correspondence determining unit 22 extracts a set of feature points that are estimated to represent the same object (or a specific portion of the object) between feature points extracted from images of different imaging frames. In the example of FIG. 4, the feature point correspondence determination unit 22 associates feature points CPa0 and CPa1 and feature points CPb0 and CPb1 to form a pair.

姿勢推定処理部23は、複数の撮像画像間の特徴点の対応関係からカメラ10の姿勢(ピッチ角、パン角、ロール角等)を推定する。図4の例では、姿勢推定処理部23は、例えば、特徴点対応判定部22が対応づけた、特徴点CPa0とCPa1の関係、および特徴点CPb0とCPb1の関係からカメラ10の姿勢を推定する。   The posture estimation processing unit 23 estimates the posture (pitch angle, pan angle, roll angle, etc.) of the camera 10 from the correspondence between the feature points between the plurality of captured images. In the example of FIG. 4, for example, the posture estimation processing unit 23 estimates the posture of the camera 10 from the relationship between the feature points CPa0 and CPa1 and the relationship between the feature points CPb0 and CPb1 that are associated by the feature point correspondence determination unit 22, for example. .

隣接車両フロー抽出部24は、特徴点対応判定部22により対応づけられた特徴点の組を結んで直線を生成する。この直線を、以下、「隣接車両フロー」と称する。ここで、隣接車両フローとは、複数の撮像画像間において、特徴点対応判定部22により対応づけられた特徴点を結び、空間上の有向線分としたものである。隣接車両フロー抽出部24は、例えば、特徴点を結んだ空間上の有向線分の中から、線分の傾きが、線分の位置から消失点VPに向かう方向に対して所定角度以内であり、且つ消失点VPよりも画像上で下側に存在する有向線分を、隣接車両フローとして抽出する。   The adjacent vehicle flow extraction unit 24 generates a straight line by connecting a set of feature points associated by the feature point correspondence determination unit 22. Hereinafter, this straight line is referred to as “adjacent vehicle flow”. Here, the adjacent vehicle flow is a directional line segment in space by connecting feature points associated by the feature point correspondence determining unit 22 between a plurality of captured images. For example, the adjacent vehicle flow extraction unit 24 has an inclination of a line segment within a predetermined angle with respect to a direction from the position of the line segment toward the vanishing point VP from the directed line segments on the space connecting the feature points. A directed line segment that is present and below the vanishing point VP on the image is extracted as an adjacent vehicle flow.

図4の例では、隣接車両フロー抽出部24は、2つの撮像画像間において、特徴点対応判定部22により、対応づけされたそれぞれの特徴点「CPa0とCPa1」「CPb0とCPb1」を結び、空間上の有向線分とした「Fa」「Fb」を隣接車両フローとして抽出する。隣接車両フロー「Fa」「Fb」は、画像周辺から消失点に向かう方向であり、且つ消失点よりも画像上で下側に存在している。   In the example of FIG. 4, the adjacent vehicle flow extraction unit 24 connects the respective feature points “CPa0 and CPa1” and “CPb0 and CPb1” that are associated by the feature point correspondence determination unit 22 between the two captured images. “Fa” and “Fb”, which are directed line segments in space, are extracted as adjacent vehicle flows. The adjacent vehicle flows “Fa” and “Fb” are in the direction from the periphery of the image toward the vanishing point, and exist below the vanishing point on the image.

フローグループ化処理部25は、隣接車両フロー抽出部24により抽出された各隣接車両フローをグループ化する。フローグループ化処理部25は、例えば、クラスタリング処理によって特徴点フローをグループ化する。フローグループ化処理部25は、隣接車両フロー抽出部24により抽出された各隣接車両フローの座標位置、長さ、傾き等から同一物体とみなせる隣接車両フローをクラスタリングすることによってグループ化する。これについては既に種々の手法が公知となっているため、説明を省略する。図4の例では、フローグループ化処理部25は、各隣接車両フロー「Fa」「Fb」を座標位置、長さ、傾きに基づき、クラスタリングすることによって、一つのグループとしてグループ化することができる。   The flow grouping processing unit 25 groups the adjacent vehicle flows extracted by the adjacent vehicle flow extraction unit 24. The flow grouping processing unit 25 groups the feature point flows by, for example, clustering processing. The flow grouping processing unit 25 performs grouping by clustering adjacent vehicle flows that can be regarded as the same object from the coordinate position, length, inclination, and the like of each adjacent vehicle flow extracted by the adjacent vehicle flow extraction unit 24. Since various methods are already known about this, description is abbreviate | omitted. In the example of FIG. 4, the flow grouping processing unit 25 can group each adjacent vehicle flow “Fa” and “Fb” as one group by clustering based on the coordinate position, length, and inclination. .

特徴線抽出部30は、隣接車両フロー群に近いIMの範囲で、消失点VPに向かう方向に近い傾きを有する特徴線である「斜めエッジ」と、撮像画像IMにおける垂直方向に近い傾きを有する特徴線である「垂直エッジ」とをそれぞれ抽出する。「近い」とは、例えば方向と傾きのなす角度が所定の角度範囲内にあることをいう。斜めエッジと垂直エッジとしては、直線または曲率が一定以下の曲線が選択される。自車両と隣接車両の位置関係から、隣接車両の側方下端部は、斜めエッジとして抽出され、隣接車両の前端部は、垂直エッジとして抽出される可能性が高い。そして、斜めエッジと垂直エッジとは、傾きが異なる特徴線となる。斜めエッジとは、例えば、撮像画像IMにおける隣接車両フロー群に近い領域内で、消失点に向かう方向に直交する方向の輝度勾配が所定値よりも大きい画素を連ねた線である。また、垂直エッジとは、例えば、撮像画像IMにおける隣接車両フロー群に近い領域内で、画像の横方向(水平方向)の輝度勾配が所定値よりも大きい画素を連ねた線である。また、特徴線は、特徴点抽出部21により抽出される特徴点を連ねた線であってもよいし、その他の手法により画像から抽出される線であってもよい。特徴線を抽出する手法として、例えば、特徴点強調による線や輪郭線を検出する公知技術であるCanny手法や、新規の手法を適宜利用できる。   The feature line extraction unit 30 has a “slanted edge” that is a feature line having an inclination close to the vanishing point VP in an IM range close to the adjacent vehicle flow group, and an inclination close to the vertical direction in the captured image IM. The feature lines “vertical edges” are extracted. “Near” means, for example, that an angle formed by a direction and an inclination is within a predetermined angle range. A straight line or a curve having a certain curvature or less is selected as the oblique edge and the vertical edge. From the positional relationship between the host vehicle and the adjacent vehicle, the side lower end portion of the adjacent vehicle is likely to be extracted as an oblique edge, and the front end portion of the adjacent vehicle is likely to be extracted as a vertical edge. The oblique edge and the vertical edge are characteristic lines having different inclinations. An oblique edge is, for example, a line in which pixels having a luminance gradient in a direction orthogonal to the direction toward the vanishing point in a region near the adjacent vehicle flow group in the captured image IM are larger than a predetermined value. Further, the vertical edge is, for example, a line connecting pixels in which the luminance gradient in the horizontal direction (horizontal direction) of the image is larger than a predetermined value in a region near the adjacent vehicle flow group in the captured image IM. Further, the feature line may be a line in which the feature points extracted by the feature point extraction unit 21 are connected, or may be a line extracted from the image by another method. As a technique for extracting feature lines, for example, a Canny technique, which is a known technique for detecting a line or contour line by feature point enhancement, or a new technique can be used as appropriate.

特徴線抽出部30は、隣接車両OBに対応するグループ化された隣接車両フロー群「Fa」「Fb」に近い領域内で、斜めエッジと垂直エッジを抽出する。なお、特徴線抽出部30は、すべてのグループ化された隣接車両フロー群を、順次、選択して、選択した隣接車両フロー群に近い領域内の斜めエッジと垂直エッジの抽出、および後述する処理を繰り返してもよい。   The feature line extraction unit 30 extracts diagonal edges and vertical edges in a region close to the grouped adjacent vehicle flow groups “Fa” and “Fb” corresponding to the adjacent vehicle OB. Note that the feature line extraction unit 30 sequentially selects all the grouped adjacent vehicle flow groups, extracts diagonal edges and vertical edges in an area close to the selected adjacent vehicle flow group, and processing to be described later May be repeated.

隣接車両特徴線選択部31は、特徴線抽出部30により抽出された斜めエッジから、隣接車両の側方下端部を表すと推定される斜めエッジである隣接車両斜めエッジ(第1の特徴線)を選択する。他車両の「下端」とは、例えば、ロッカーパネル部や、路面と他車両との接地面、他車両の影などが車両の側方下端部に相当する。図4の例では、隣接車両OBに対応するグループ化された隣接車両フロー「Fa」「Fb」に近い傾きを持ち、隣接車両の側方下端部を示すと推定される特徴線「A1」が、隣接車両斜めエッジとして選択される。   The adjacent vehicle feature line selection unit 31 is an adjacent vehicle oblique edge (first feature line) that is an oblique edge that is estimated from the oblique edge extracted by the feature line extraction unit 30 to represent the lateral lower end of the adjacent vehicle. Select. The “lower end” of the other vehicle corresponds to, for example, a rocker panel portion, a contact surface between the road surface and the other vehicle, a shadow of the other vehicle, and the like. In the example of FIG. 4, the characteristic line “A1” that has a slope close to the grouped adjacent vehicle flows “Fa” and “Fb” corresponding to the adjacent vehicle OB and is estimated to indicate the side lower end portion of the adjacent vehicle is , Selected as an adjacent vehicle diagonal edge.

また、隣接車両特徴線選択部31は、特徴線抽出部30により抽出された垂直エッジから、隣接車両の前端部を表すと推定され、隣接車両斜めエッジと画像上の傾きが異なる垂直エッジである隣接車両垂直エッジ(第2の特徴線)を選択する。ここで、隣接車両OBの「前端部」とは、隣接車両OBのフロントグリル近傍、及び/又はフロントバンパー近傍が形成する部分である。図4の例では、隣接車両特徴線選択部31は、特徴線「B1」を、隣接車両垂直エッジとして選択する。   The adjacent vehicle feature line selection unit 31 is a vertical edge that is estimated from the vertical edge extracted by the feature line extraction unit 30 to represent the front end portion of the adjacent vehicle, and has a different inclination on the image from the adjacent vehicle oblique edge. The adjacent vehicle vertical edge (second feature line) is selected. Here, the “front end” of the adjacent vehicle OB is a portion formed near the front grill and / or near the front bumper of the adjacent vehicle OB. In the example of FIG. 4, the adjacent vehicle feature line selection unit 31 selects the feature line “B1” as the adjacent vehicle vertical edge.

隣接車両特徴線選択部31は、垂直エッジが1つのみ抽出された場合には、その1つの垂直エッジを隣接車両垂直エッジとして選択するが、複数の垂直エッジが抽出された場合には、下記に例示する手法によって隣接車両垂直エッジを選択する。図5は、複数の垂直エッジから隣接車両垂直エッジを選択する例を説明するための図である。図中、A2は、隣接車両特徴線選択部31により選択された隣接車両斜めエッジであり、B2、B3は、特徴線抽出部30により抽出された垂直エッジである。この場合、隣接車両特徴線選択部31は、撮像部10により撮像された画像から認識可能な自車両の走行車線に最も近い垂直エッジB2を、隣接車両垂直エッジとして選択する。   When only one vertical edge is extracted, the adjacent vehicle feature line selection unit 31 selects the one vertical edge as the adjacent vehicle vertical edge. However, when a plurality of vertical edges are extracted, The adjacent vehicle vertical edge is selected by the method illustrated in FIG. FIG. 5 is a diagram for describing an example in which an adjacent vehicle vertical edge is selected from a plurality of vertical edges. In the figure, A2 is an adjacent vehicle oblique edge selected by the adjacent vehicle feature line selection unit 31, and B2 and B3 are vertical edges extracted by the feature line extraction unit 30. In this case, the adjacent vehicle feature line selection unit 31 selects the vertical edge B2 closest to the traveling lane of the host vehicle that can be recognized from the image captured by the imaging unit 10 as the adjacent vehicle vertical edge.

ここで「自車両の走行車線に最も近い垂直エッジ」は、例えば、複数の垂直エッジ(ここでは長さを有する線分とする)B2、B3から自車両の走行車線を区画する区画線L1までの最短距離r2、r3を求め、最短距離が短い方(図5)では垂直エッジB2を選択することで決定される。また、これに限らず、撮像画像IM上で左右方向に関する中心線に最も近い点を含む垂直エッジを隣接車両垂直エッジとして選択してもよい。   Here, the “vertical edge closest to the traveling lane of the host vehicle” is, for example, from a plurality of vertical edges (here, line segments having lengths) B2 and B3 to a lane line L1 that divides the traveling lane of the host vehicle. The shortest distances r2 and r3 are obtained, and the shortest distance (FIG. 5) is determined by selecting the vertical edge B2. The vertical edge including the point closest to the center line in the left-right direction on the captured image IM may be selected as the adjacent vehicle vertical edge.

交点座標算出部40は、隣接車両斜めエッジと隣接車両垂直エッジの交点を算出する。図4の例では、交点座標算出部40は、隣接車両斜めエッジA1と隣接車両垂直エッジB1の交点X1を算出する。   The intersection coordinate calculation unit 40 calculates the intersection of the adjacent vehicle diagonal edge and the adjacent vehicle vertical edge. In the example of FIG. 4, the intersection coordinate calculation unit 40 calculates an intersection X1 between the adjacent vehicle oblique edge A1 and the adjacent vehicle vertical edge B1.

車両位置算出部41は、交点座標算出部40により算出された交点の画像上の位置と、姿勢推定処理部23で推定したカメラ10の姿勢とに基づいて、交点の三次元位置を算出する。   The vehicle position calculation unit 41 calculates the three-dimensional position of the intersection based on the position on the image of the intersection calculated by the intersection coordinate calculation unit 40 and the posture of the camera 10 estimated by the posture estimation processing unit 23.

割り込み判定部42は、車両位置算出部41により算出された交点の三次元位置に基づいて、隣接車両OBが割り込み車両であるか否かを判定する。割り込み判定部42は、例えば、算出された交点の三次元位置と、自車両の進行予定軌跡(自車両の左右端から前方に延出する線で区画される領域)とが重なっているかどうか判断し、重なっている場合に隣接車両OBが割り込み車両であると判定する。また、割り込み判定部42は、自車両が走行している車線を区画する区画線L1(図4、5)を交点が跨いだ場合に、隣接車両OBが割り込み車両と判定しても良い。   The interruption determination unit 42 determines whether or not the adjacent vehicle OB is an interruption vehicle based on the three-dimensional position of the intersection calculated by the vehicle position calculation unit 41. For example, the interrupt determination unit 42 determines whether or not the calculated three-dimensional position of the intersection and the planned travel path of the host vehicle (area partitioned by a line extending forward from the left and right ends of the host vehicle) overlap. If it is overlapped, it is determined that the adjacent vehicle OB is an interrupting vehicle. Moreover, the interruption determination unit 42 may determine that the adjacent vehicle OB is an interruption vehicle when the intersection crosses the lane line L1 (FIGS. 4 and 5) that divides the lane in which the host vehicle is traveling.

割り込み判定部42は、上記の処理に代えて、隣接車両OBが割り込み車両であることの可能性を示す指標値(連続値または段階値)を算出してもよい。この場合、割り込み判定部は、距離(図4、α及び/又はβ)が短くなるのに応じて指標値を大きく算出する。また、割り込み判定部42は、例えば、距離αと距離βの差分(すなわち交点と区画線L1の距離の時間的変化)およびその変化程度、距離αと距離βとの比、交点の移動方向などを複合的に組み合わせて、自車両が走行する車線へ隣接車両OBが進入する可能性を判定してもよい。   The interrupt determination unit 42 may calculate an index value (continuous value or step value) indicating the possibility that the adjacent vehicle OB is an interrupted vehicle, instead of the above processing. In this case, the interrupt determination unit calculates a larger index value as the distance (FIG. 4, α and / or β) becomes shorter. Further, the interrupt determination unit 42, for example, the difference between the distance α and the distance β (that is, the temporal change in the distance between the intersection and the lane marking L1) and the degree of the change, the ratio between the distance α and the distance β, the moving direction of the intersection, and the like. May be combined to determine the possibility of the adjacent vehicle OB entering the lane in which the host vehicle is traveling.

また、割り込み判定部42が指標値等を算出する場合、割り込み判定部42は、種々の状態値に基づいて、指標値の補正を行ってもよい。割り込み判定部42は、例えば、自車両と隣接車両との進行方向の距離、または衝突時間(TTC;Time To Collision)が長い場合には、隣接車両の自車線への進入の可能性を大きく補正し、自車両と隣接車両との進行方向の距離、または衝突時間が短い場合には、隣接車両の自車線への進入の可能性を小さく補正してもよい。こうすれば、自車両と隣接車両が近い位置に相対し、緊急性が高い場合には、自車両が走行する車線へ隣接車両が進入する可能性を大きく補正することで、自車両の制御が必要であるか否かを考慮した隣接車両の車線変更を判定することができる。   When the interrupt determination unit 42 calculates an index value or the like, the interrupt determination unit 42 may correct the index value based on various state values. For example, when the distance in the traveling direction between the host vehicle and the adjacent vehicle or the collision time (TTC; Time To Collision) is long, the interrupt determination unit 42 greatly corrects the possibility of the adjacent vehicle entering the host lane. If the distance in the traveling direction between the own vehicle and the adjacent vehicle or the collision time is short, the possibility of the adjacent vehicle entering the own lane may be corrected to be small. In this way, when the host vehicle and the adjacent vehicle are close to each other and the urgency is high, the possibility of the adjacent vehicle entering the lane on which the host vehicle is traveling is greatly corrected, thereby controlling the host vehicle. It is possible to determine the lane change of the adjacent vehicle in consideration of whether or not it is necessary.

車両制御部50は、割り込み判定部42により算出された隣接車両の位置情報に基づいて、車両のドライバーが安全に運転できるように種々の安全制御を行う。例えば、制御装置20によって検出された隣接車両の位置や速度に応じて、隣接車両との距離を一定に保つように、自車両の速度制御を行ってもよいし、検出対象物の位置に基づいて自車両の自動ブレーキ制御や自動操舵制御を行ってもよい。   The vehicle control unit 50 performs various safety controls based on the position information of the adjacent vehicle calculated by the interrupt determination unit 42 so that the driver of the vehicle can drive safely. For example, the speed of the host vehicle may be controlled so as to keep the distance from the adjacent vehicle constant according to the position and speed of the adjacent vehicle detected by the control device 20, or based on the position of the detection object. Thus, automatic brake control and automatic steering control of the host vehicle may be performed.

警告表示制御部52は、割り込み判定部42により算出された隣接車両の位置情報に基づいて、車内に注意または警告喚起を示す情報を液晶ディスプレイ等の表示装置に表示させる。また、注意または警告喚起を示す情報は、シートベルトの締め付けやアラーム音、振動などによって運転者に伝えてもよい。   Based on the position information of the adjacent vehicle calculated by the interrupt determination unit 42, the warning display control unit 52 causes the display device such as a liquid crystal display to display information indicating caution or warning. In addition, information indicating attention or alerting may be transmitted to the driver by tightening a seat belt, an alarm sound, vibration, or the like.

〔動作フロー〕
図6は、本実施形態の制御装置20により実行される処理の流れの一例を示すフローチャートである。図6を参照して、運転支援装置1が行う処理について説明する。
[Operation flow]
FIG. 6 is a flowchart illustrating an example of a flow of processing executed by the control device 20 of the present embodiment. With reference to FIG. 6, the process which the driving assistance apparatus 1 performs is demonstrated.

まず、特徴点抽出部21が、撮像画像から特徴点を抽出する(ステップS100)。次に、特徴点対応判定部22が、複数の撮像画像間で、特徴点抽出部21により抽出された特徴点の対応関係を判定する(ステップS102)。次に、姿勢推定処理部23が、複数の撮像画像間の特徴点の対応関係からカメラ10の姿勢(ピッチ角、パン角、ロール角等)を推定する。(ステップS104)。次に、隣接車両フロー抽出部24が、特徴点対応判定部22により対応づけられた特徴点の対応関係から隣接車両の隣接車両フローを抽出する。(ステップS106)。次に、フローグループ化処理部25が、隣接車両フロー抽出部24により抽出された各隣接車両フローをグループ化する。(ステップS108)。そして、特徴線抽出部30が、選択したグループの隣接車両フロー群に近い領域内で、撮像画像IMにおける消失点VPに向かう方向に近い傾きを有する特徴線である「斜めエッジ」と、撮像画像IMにおける垂直方向に近い傾きを有する特徴線である「垂直エッジ」とをそれぞれ抽出する(ステップS110)。   First, the feature point extraction unit 21 extracts feature points from the captured image (step S100). Next, the feature point correspondence determining unit 22 determines the correspondence relationship between the feature points extracted by the feature point extracting unit 21 between the plurality of captured images (step S102). Next, the posture estimation processing unit 23 estimates the posture (pitch angle, pan angle, roll angle, etc.) of the camera 10 from the correspondence between the feature points between the plurality of captured images. (Step S104). Next, the adjacent vehicle flow extraction unit 24 extracts the adjacent vehicle flow of the adjacent vehicle from the correspondence relationship of the feature points associated by the feature point correspondence determination unit 22. (Step S106). Next, the flow grouping processing unit 25 groups the adjacent vehicle flows extracted by the adjacent vehicle flow extraction unit 24. (Step S108). Then, the feature line extraction unit 30 includes a “diagonal edge” that is a feature line having an inclination close to the vanishing point VP in the captured image IM within the region close to the adjacent vehicle flow group of the selected group, and the captured image. Each “vertical edge”, which is a feature line having an inclination close to the vertical direction in IM, is extracted (step S110).

次に、隣接車両特徴線選択部31が、特徴線抽出部30により抽出された斜めエッジから隣接車両の側方下端部を表すと推定される斜めエッジである隣接車両斜めエッジ(第1の特徴線)を選択すると共に、特徴線抽出部30により抽出された垂直エッジから隣接車両の前端部を表すと推定される隣接車両垂直エッジ(第2の特徴線)を選択する(ステップS112)。次に、交点座標算出部40が、隣接車両斜めエッジと隣接車両垂直エッジの交点を算出する(ステップS114)。次に、車両位置算出部41が、交点座標値と、姿勢推定処理部23で推定したカメラ10姿勢とから、画像に対応する三次元座標における交点座標値を算出する(ステップS116)。次に、特徴線抽出部30が、未選択の隣接車両フロー群が存在するか否かを判定する(ステップS118)。他のグループ化された隣接車両フロー群が存在する場合には、ステップS110へ戻り、他の特徴点フロー群が存在しない場合には、ステップS120へ進む。   Next, the adjacent vehicle feature line selection unit 31 is an adjacent vehicle oblique edge (first feature) that is an oblique edge estimated to represent the side lower end portion of the adjacent vehicle from the oblique edge extracted by the feature line extraction unit 30. Line) and an adjacent vehicle vertical edge (second feature line) estimated to represent the front end portion of the adjacent vehicle from the vertical edges extracted by the feature line extraction unit 30 is selected (step S112). Next, the intersection coordinate calculation unit 40 calculates the intersection of the adjacent vehicle diagonal edge and the adjacent vehicle vertical edge (step S114). Next, the vehicle position calculation unit 41 calculates the intersection coordinate value in the three-dimensional coordinates corresponding to the image from the intersection coordinate value and the posture of the camera 10 estimated by the posture estimation processing unit 23 (step S116). Next, the feature line extraction unit 30 determines whether there is an unselected adjacent vehicle flow group (step S118). If another grouped adjacent vehicle flow group exists, the process returns to step S110, and if another feature point flow group does not exist, the process proceeds to step S120.

次に、割り込み判定部42が、隣接車両の交点の三次元座標値から割り込み車両であるか否かを判定する(ステップS120)。割り込み車両であると判定された場合は、車両制御部50が、割り込み判定部42により算出された隣接車両の位置情報に基づいて、車両のドライバーが安全に運転できるように種々の安全制御を行う(ステップS122)。これによって、本フローチャートの処理が終了する。   Next, the interruption determination unit 42 determines whether the vehicle is an interruption vehicle from the three-dimensional coordinate value of the intersection of adjacent vehicles (step S120). When it is determined that the vehicle is an interrupting vehicle, the vehicle control unit 50 performs various safety controls based on the position information of the adjacent vehicle calculated by the interrupt determining unit 42 so that the driver of the vehicle can drive safely. (Step S122). Thereby, the process of this flowchart is complete | finished.

以上説明した本実施形態の物体検出装置5によれば、制御装置20が、他車両の側方下端部を表すと推定される隣接車両斜めエッジ(第1の特徴線)と、他車両の前端部を表すと推定される隣接車両垂直エッジ(第2の特徴線)であって、隣接車両斜めエッジ(第1の特徴線)と画像上の傾きが異なる垂直エッジ(第2の特徴線)とを抽出し、割り込み判定部42が、隣接車両斜めエッジ(第1の特徴線)と隣接車両垂直エッジ(第2の特徴線)との交点に基づいて、自車両の走行車線への他車両の接近や進入を判定するため、精度良く自車両の走行車線への他車両の進入を判定することができる。   According to the object detection device 5 of the present embodiment described above, the control device 20 has an adjacent vehicle oblique edge (first characteristic line) estimated to represent the side lower end of the other vehicle, and the front end of the other vehicle. An adjacent vehicle vertical edge (second feature line) estimated to represent a part, and an adjacent vehicle oblique edge (first feature line) and a vertical edge (second feature line) having a different inclination on the image, And the interrupt determination unit 42 determines whether the other vehicle is in the traveling lane of the own vehicle based on the intersection of the adjacent vehicle diagonal edge (first feature line) and the adjacent vehicle vertical edge (second feature line). Since the approach and the approach are determined, it is possible to accurately determine the approach of another vehicle to the traveling lane of the host vehicle.

また、本実施形態の運転支援装置1によれば、物体検出装置5によって精度良く認識された自車両の走行車線への他車両の進入に基づいて、好適な運転支援を行うことができる。この結果、安全運転に寄与することができる。   Moreover, according to the driving assistance apparatus 1 of this embodiment, suitable driving assistance can be performed based on the approach of the other vehicle to the traveling lane of the host vehicle recognized by the object detection apparatus 5 with high accuracy. As a result, it can contribute to safe driving.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

1…運転支援装置、5…物体検出装置、10…カメラ、20…制御装置、21…特徴点抽出部、22…特徴点対応判定部、23…姿勢推定処理部、24…隣接車両フロー抽出部、25…フローグループ化処理部、30…特徴線抽出部、31…隣接車両特徴線選択部、40…交点座標算出部、41…車両位置算出部、42…割り込み判定部、50…車両制御部
52…警告表示制御部、M…自車両、IM…撮像画像、OB…隣接車両、CP…特徴点、VP…消失点、Fa、Fb…隣接車両フロー、A0、A1、A2…隣接車両斜めエッジ(第1の特徴線)、B0、B1…隣接車両垂直エッジ(第2の特徴線)、X0、X1…交点、L1…区画線、B2、B3…垂直エッジ(第2の特徴線候補)
DESCRIPTION OF SYMBOLS 1 ... Driving assistance apparatus, 5 ... Object detection apparatus, 10 ... Camera, 20 ... Control apparatus, 21 ... Feature point extraction part, 22 ... Feature point corresponding | compatible determination part, 23 ... Posture estimation process part, 24 ... Neighboring vehicle flow extraction part 25 ... Flow grouping processing unit, 30 ... Feature line extraction unit, 31 ... Adjacent vehicle feature line selection unit, 40 ... Intersection coordinate calculation unit, 41 ... Vehicle position calculation unit, 42 ... Interrupt determination unit, 50 ... Vehicle control unit 52 ... Warning display control unit, M ... own vehicle, IM ... captured image, OB ... adjacent vehicle, CP ... feature point, VP ... vanishing point, Fa, Fb ... adjacent vehicle flow, A0, A1, A2 ... adjacent vehicle oblique edge (First feature line), B0, B1 ... adjacent vehicle vertical edge (second feature line), X0, X1 ... intersection, L1 ... partition line, B2, B3 ... vertical edge (second feature line candidate)

Claims (8)

自車両周辺を撮像する撮像部と、
前記撮像部により撮像された画像から、他車両の側方下端部を表すと推定される第1の特徴線と、前記他車両の前端部を表すと推定される第2の特徴線であって前記第1の特徴線と画像上の傾きが異なる第2の特徴線とを抽出する特徴線抽出部と、
前記第1の特徴線と前記第2の特徴線との交点に基づいて、自車両の走行車線への他車両の進入を判定する判定部と、
を備える物体検出装置。
An imaging unit for imaging the periphery of the vehicle;
A first feature line estimated from the image captured by the imaging unit to represent a side lower end portion of another vehicle and a second feature line estimated to represent a front end portion of the other vehicle; A feature line extraction unit for extracting the first feature line and a second feature line having a different inclination on the image;
A determination unit that determines an approach of another vehicle to the traveling lane of the host vehicle based on an intersection of the first feature line and the second feature line;
An object detection apparatus comprising:
前記判定部は、前記交点の位置が、前記撮像部により撮像された画像から認識可能な前記自車両の走行車線または進行予定軌跡に接近し、接触し、または進入するのに応じて、前記自車両の走行車線への他車両の進入を判定する、
請求項1記載の物体検出装置。
The determination unit determines whether the position of the intersecting point approaches, touches, or enters the travel lane or planned travel path of the host vehicle that can be recognized from the image captured by the imaging unit. Determining the entry of another vehicle into the vehicle lane,
The object detection apparatus according to claim 1.
前記撮像部により撮像された画像から特徴点を抽出する特徴点抽出部を備え、
前記特徴線抽出部は、前記特徴点抽出部により異なる撮像フレームの画像から抽出された特徴点の間で、同一の物体を表すと推定される特徴点の組を抽出し、前記特徴点の組を結んで生成される直線と略同方向である特徴線を、前記第1の特徴線として選択する、
請求項1または2記載の物体検出装置。
A feature point extraction unit that extracts a feature point from the image captured by the imaging unit;
The feature line extraction unit extracts a set of feature points estimated to represent the same object between feature points extracted from images of different imaging frames by the feature point extraction unit, and the set of feature points A feature line that is substantially in the same direction as a straight line generated by connecting the two is selected as the first feature line.
The object detection apparatus according to claim 1 or 2.
前記特徴線抽出部は、複数の第2の特徴線候補が存在する場合、前記複数の第2の特徴線候補の中から、前記撮像部により撮像された画像から認識可能な前記自車両の走行車線に最も近い第2の特徴線候補を、前記第2の特徴線として選択する、
請求項1から3のうちいずれか1項に記載の物体検出装置。
When there are a plurality of second feature line candidates, the feature line extraction unit travels the host vehicle that can be recognized from an image captured by the imaging unit from among the plurality of second feature line candidates. Selecting the second feature line candidate closest to the lane as the second feature line;
The object detection device according to claim 1.
請求項1から4のうちいずれか1項に記載の物体検出装置と、
前記判定部の判定結果に基づいて前記車両の運転支援を行う運転支援部と、
を備える運転支援装置。
The object detection device according to any one of claims 1 to 4,
A driving support unit that supports driving of the vehicle based on the determination result of the determination unit;
A driving support apparatus comprising:
自車両周辺を撮像する撮像部と、
前記撮像部により撮像された画像から、第1の特徴線と、前記第1の特徴線と画像上の傾きが異なる第2の特徴線とを抽出する特徴線抽出部と、
前記第1の特徴線と前記第2の特徴線との交点に基づいて、自車両の走行車線への他車両の進入を判定する判定部と、
を備える物体検出装置。
An imaging unit for imaging the periphery of the vehicle;
A feature line extraction unit that extracts a first feature line and a second feature line having a different inclination on the image from the image captured by the imaging unit;
A determination unit that determines an approach of another vehicle to the traveling lane of the host vehicle based on an intersection of the first feature line and the second feature line;
An object detection apparatus comprising:
物体検出装置が、
自車両周辺を撮像し、
前記撮像された画像から、他車両の側方下端部を表すと推定される第1の特徴線と、前記他車両の前端部を表すと推定される第2の特徴線であって前記第1の特徴線と画像上の傾きが異なる第2の特徴線とを抽出し、
前記第1の特徴線と前記第2の特徴線との交点に基づいて、自車両の走行車線への他車両の進入を判定する、
物体検出方法。
Object detection device
Take an image of the area around your vehicle,
From the captured image, a first feature line that is estimated to represent a lower side end portion of another vehicle and a second feature line that is estimated to represent a front end portion of the other vehicle, the first feature line And a second feature line having a different inclination on the image,
Based on the intersection of the first feature line and the second feature line, it is determined whether the other vehicle has entered the traveling lane of the host vehicle.
Object detection method.
物体検出装置の制御コンピュータに、
自車両周辺を撮像した画像から、他車両の側方下端部を表すと推定される第1の特徴線と、前記他車両の前端部を表すと推定される第2の特徴線であって前記第1の特徴線と画像上の傾きが異なる第2の特徴線とを抽出させ、
前記第1の特徴線と前記第2の特徴線との交点に基づいて、自車両の走行車線への他車両の進入を判定させる、
物体検出プログラム。
In the control computer of the object detection device,
A first feature line that is estimated to represent a lower side portion of a side of the other vehicle from an image of the periphery of the host vehicle, and a second feature line that is estimated to represent a front end of the other vehicle, Extracting a first feature line and a second feature line having a different inclination on the image;
Based on the intersection of the first feature line and the second feature line, the approach of another vehicle to the traveling lane of the host vehicle is determined.
Object detection program.
JP2014110527A 2014-05-28 2014-05-28 Object detection device, driving support device, object detection method, and object detection program Expired - Fee Related JP6139465B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014110527A JP6139465B2 (en) 2014-05-28 2014-05-28 Object detection device, driving support device, object detection method, and object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014110527A JP6139465B2 (en) 2014-05-28 2014-05-28 Object detection device, driving support device, object detection method, and object detection program

Publications (2)

Publication Number Publication Date
JP2015225546A true JP2015225546A (en) 2015-12-14
JP6139465B2 JP6139465B2 (en) 2017-05-31

Family

ID=54842229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014110527A Expired - Fee Related JP6139465B2 (en) 2014-05-28 2014-05-28 Object detection device, driving support device, object detection method, and object detection program

Country Status (1)

Country Link
JP (1) JP6139465B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101795270B1 (en) * 2016-06-09 2017-11-07 현대자동차주식회사 Method and Apparatus for Detecting Side of Object using Information for Ground Boundary of Obstacle
WO2018158875A1 (en) * 2017-03-01 2018-09-07 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program
CN108801133A (en) * 2018-04-25 2018-11-13 上汽大众汽车有限公司 The detection method of vehicle body feature line position drop
JP2019209701A (en) * 2018-05-31 2019-12-12 マツダ株式会社 Vehicle control device and vehicle control method
JPWO2021166169A1 (en) * 2020-02-20 2021-08-26
WO2022107549A1 (en) * 2020-11-19 2022-05-27 株式会社デンソー Traveling support device
WO2022201698A1 (en) * 2021-03-26 2022-09-29 パナソニックIpマネジメント株式会社 Control device, warning control method, and program
JP2023057675A (en) * 2021-10-12 2023-04-24 本田技研工業株式会社 Vehicle control unit, vehicle control method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242900A (en) * 1999-02-24 2000-09-08 Mitsubishi Motors Corp Device for detecting interruption vehicle
JP2003281700A (en) * 2002-03-25 2003-10-03 Toshiba Corp Cutting-in vehicle detecting device and method
JP2004280194A (en) * 2003-03-12 2004-10-07 Toshiba Corp Forward monitor and method therefor
JP2008117073A (en) * 2006-11-01 2008-05-22 Fuji Heavy Ind Ltd Interruption vehicle detection device
JP2009012493A (en) * 2007-06-29 2009-01-22 Hitachi Ltd Vehicle driving assist apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242900A (en) * 1999-02-24 2000-09-08 Mitsubishi Motors Corp Device for detecting interruption vehicle
JP2003281700A (en) * 2002-03-25 2003-10-03 Toshiba Corp Cutting-in vehicle detecting device and method
JP2004280194A (en) * 2003-03-12 2004-10-07 Toshiba Corp Forward monitor and method therefor
JP2008117073A (en) * 2006-11-01 2008-05-22 Fuji Heavy Ind Ltd Interruption vehicle detection device
JP2009012493A (en) * 2007-06-29 2009-01-22 Hitachi Ltd Vehicle driving assist apparatus

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491065B (en) * 2016-06-09 2021-05-25 现代自动车株式会社 Method and apparatus for detecting side surface of object using ground boundary information of obstacle
CN107491065A (en) * 2016-06-09 2017-12-19 现代自动车株式会社 The method and apparatus of the side of the ground boundary information detection object of Use barriers thing
US10013618B2 (en) 2016-06-09 2018-07-03 Hyundai Motor Company Method and apparatus for detecting side of object using ground boundary information of obstacle
KR101795270B1 (en) * 2016-06-09 2017-11-07 현대자동차주식회사 Method and Apparatus for Detecting Side of Object using Information for Ground Boundary of Obstacle
WO2018158875A1 (en) * 2017-03-01 2018-09-07 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program
JPWO2018158875A1 (en) * 2017-03-01 2019-12-12 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program
US11247682B2 (en) 2017-03-01 2022-02-15 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
CN108801133A (en) * 2018-04-25 2018-11-13 上汽大众汽车有限公司 The detection method of vehicle body feature line position drop
CN108801133B (en) * 2018-04-25 2020-03-10 上汽大众汽车有限公司 Method for detecting vehicle body characteristic line position drop
JP2019209701A (en) * 2018-05-31 2019-12-12 マツダ株式会社 Vehicle control device and vehicle control method
JPWO2021166169A1 (en) * 2020-02-20 2021-08-26
WO2021166169A1 (en) * 2020-02-20 2021-08-26 日本電信電話株式会社 Vehicle condition estimation method, vehicle condition estimation device and vehicle condition estimation program
JP7380824B2 (en) 2020-02-20 2023-11-15 日本電信電話株式会社 Vehicle state estimation method, vehicle state estimation device, and vehicle state estimation program
WO2022107549A1 (en) * 2020-11-19 2022-05-27 株式会社デンソー Traveling support device
JP7331824B2 (en) 2020-11-19 2023-08-23 株式会社デンソー Driving support device
WO2022201698A1 (en) * 2021-03-26 2022-09-29 パナソニックIpマネジメント株式会社 Control device, warning control method, and program
JP2023057675A (en) * 2021-10-12 2023-04-24 本田技研工業株式会社 Vehicle control unit, vehicle control method, and program
JP7324819B2 (en) 2021-10-12 2023-08-10 本田技研工業株式会社 VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM

Also Published As

Publication number Publication date
JP6139465B2 (en) 2017-05-31

Similar Documents

Publication Publication Date Title
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
US11320833B2 (en) Data processing method, apparatus and terminal
JP6163453B2 (en) Object detection device, driving support device, object detection method, and object detection program
CN106663193B (en) System and method for curb detection and pedestrian hazard assessment
JP5267596B2 (en) Moving body detection device
JP4702569B2 (en) Image processing apparatus for vehicle
US11288833B2 (en) Distance estimation apparatus and operating method thereof
JP7077910B2 (en) Bound line detection device and lane marking method
JP2008123462A (en) Object detector
JP2009009209A (en) Image recognition device and image recognition processing method
JP6911312B2 (en) Object identification device
JP2015179368A (en) Road marking recognition device and road marking recognition program
JP2009033743A (en) Method for recognition of object
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device
JP2009245042A (en) Traffic flow measurement device and program
JP6483360B2 (en) Object recognition device
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP5832850B2 (en) Lane monitoring system and lane monitoring method
CN110570680A (en) Method and system for determining position of object using map information
JP5345999B2 (en) Lane mark recognition device
JP6132808B2 (en) Recognition device
KR101595317B1 (en) Precise positioning of the vehicle for detecting a road surface display method and system
JP7058128B2 (en) Information processing equipment and programs
JP7134780B2 (en) stereo camera device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170427

R150 Certificate of patent or registration of utility model

Ref document number: 6139465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees