JP2010277384A - Device and method for supporting traveling - Google Patents

Device and method for supporting traveling Download PDF

Info

Publication number
JP2010277384A
JP2010277384A JP2009130080A JP2009130080A JP2010277384A JP 2010277384 A JP2010277384 A JP 2010277384A JP 2009130080 A JP2009130080 A JP 2009130080A JP 2009130080 A JP2009130080 A JP 2009130080A JP 2010277384 A JP2010277384 A JP 2010277384A
Authority
JP
Japan
Prior art keywords
space
detected
pixel
intersection space
possibility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009130080A
Other languages
Japanese (ja)
Other versions
JP5434277B2 (en
Inventor
Masabumi Tsuji
正文 辻
Kazumi Fujimoto
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2009130080A priority Critical patent/JP5434277B2/en
Publication of JP2010277384A publication Critical patent/JP2010277384A/en
Application granted granted Critical
Publication of JP5434277B2 publication Critical patent/JP5434277B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a traveling support device which can appropriately calculate a probability of an object jumping in a road where a vehicle travels. <P>SOLUTION: The traveling support device includes an imaging means 10 that images of a front side of the vehicle, an extracting means that extracts edge components of the object moving in the image based on information of the imaged image, a lowest point position detecting means that detects a position of a pixel positioned at the lowest side in a height direction as a lowest point position among pixels configuring a pixel line which are formed with a plurality of continuing pixels corresponding to the edge component extracted by the extracting means in a predetermined area in the image, a boundary detecting means that detects a straight line that connects the lowest point positions along a traveling direction of the vehicle as a boundary of the road where the vehicle travels, an intersection space detecting means that detects intersection space which is a space that intersects with a space in the traveling direction of the vehicle based on the lowest point position, and a calculating means that calculates the probability of the object jumping in the road where the vehicle travels based on the detected intersection space. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、走行支援装置および走行支援方法に関するものである。   The present invention relates to a driving support device and a driving support method.

車両前方を撮像した画像データから路側帯領域を特定し、路側帯領域内で検出されたエッジの強度に基づいて、物体が飛び出す可能性を算出する技術が知られている(特許文献1)。   A technique is known in which a roadside band area is identified from image data obtained by imaging the front of the vehicle, and the possibility of an object popping out is calculated based on the edge strength detected in the roadside band area (Patent Document 1).

特開2007−233470号公報JP 2007-233470 A

しかしながら、路面の状態、エッジ強度が検出される対象物または該対象物の背景の明度の状態、およびエッジ強度を検出する時間帯が昼間であるか夜間であるかなどにより、対象物から検出されるエッジ強度が変化するため、従来技術では、物体が飛び出す可能性を適切に判断できない場合があった。   However, it is detected from the object depending on the condition of the road surface, the object whose edge intensity is detected or the brightness of the background of the object, and whether the time period for detecting the edge intensity is daytime or nighttime. Since the edge strength changes, the prior art may not be able to properly determine the possibility of the object popping out.

本発明が解決しようとする課題は、自車両が走行する走路に、物体が飛び出す可能性を適切に算出することができる走行支援装置を提供することである。   The problem to be solved by the present invention is to provide a travel support device that can appropriately calculate the possibility of an object jumping out on a travel path on which the host vehicle travels.

本発明は、路側帯領域に存在する構造物の特徴点に基づいて、自車両の進行方向の空間と交差する交差空間を検出し、この交差空間に基づいて、自車両が走行する走路に、物体が飛び出す可能性を算出することにより、上記課題を解決する。   The present invention detects a crossing space that intersects the space in the traveling direction of the host vehicle based on the feature points of the structures present in the roadside zone region, and based on this crossing space, on the road on which the host vehicle runs, The above problem is solved by calculating the possibility of the object popping out.

本発明によれば、路面の状態、エッジ強度が検出される対象物または対象物の背景の明度、およびエッジ強度を検出する時間帯が昼間であるか夜間であるかなどに影響されることなく、物体が飛び出す可能性を適切に判断することができる。   According to the present invention, it is not affected by the condition of the road surface, the brightness of the object whose edge intensity is detected or the background of the object, and whether the time zone for detecting the edge intensity is daytime or nighttime. The possibility of the object popping out can be determined appropriately.

本実施形態に係る走行支援システムの構成図である。It is a lineblock diagram of a run support system concerning this embodiment. カメラの設置例を示す側面図および平面図である。It is the side view and top view which show the example of installation of a camera. ディスプレイの画面上に表示される車両前方の画像の一例を示す図である。It is a figure which shows an example of the image ahead of the vehicle displayed on the screen of a display. エッジの移動情報を算出する方法例を説明するための図である。It is a figure for demonstrating the example of a method which calculates the movement information of an edge. 横速度情報を有する画素を説明するための図である。It is a figure for demonstrating the pixel which has lateral speed information. 縦速度情報を有する画素を説明するための図である。It is a figure for demonstrating the pixel which has vertical speed information. 最下点位置を検出する手法例を説明するための図である。It is a figure for demonstrating the example of a method of detecting the lowest point position. 境界線領域を抽出する手法例を説明するための図である。It is a figure for demonstrating the example of a method of extracting a boundary line area | region. 境界線を検出する手法例を説明するための図である。It is a figure for demonstrating the example of a method which detects a boundary line. 境界線に基づいて検出されるレーンマークと走路境界線とを説明するための図である。It is a figure for demonstrating the lane mark detected based on a boundary line, and a runway boundary line. 第1画素列を説明するための図である。It is a figure for demonstrating a 1st pixel column. 第2画素列を説明するための図である。It is a figure for demonstrating a 2nd pixel column. 対象領域を説明するための図である。It is a figure for demonstrating a target area | region. 対象領域の幅wと交差空間の幅Wとの関係を説明するための図である。It is a figure for demonstrating the relationship between the width w of an object area | region, and the width W of an intersection space. 対象領域の幅wと交差空間の幅Wとの関係を説明するための図である。It is a figure for demonstrating the relationship between the width w of an object area | region, and the width W of an intersection space. 対象領域に接する第2画素列と交差空間の高さHとの関係を説明するための図である。It is a figure for demonstrating the relationship between the 2nd pixel row | line which touches an object area | region, and the height H of intersection space. 属性情報を説明するための図であり、ディスプレイの画面上に表示される画像の一例である。It is a figure for demonstrating attribute information, and is an example of the image displayed on the screen of a display. 属性情報を説明するための図であり、ディスプレイの画面上に表示される画像の一例である。It is a figure for demonstrating attribute information, and is an example of the image displayed on the screen of a display. 本実施形態に係る走行支援処理のフローチャートを示す図(その1)である。It is FIG. (1) which shows the flowchart of the driving assistance process which concerns on this embodiment. 本実施形態に係る走行支援処理のフローチャートを示す図(その2)である。It is FIG. (2) which shows the flowchart of the driving assistance process which concerns on this embodiment. 本実施形態の交差空間検出処理のフローチャートを示す図(その1)である。It is FIG. (1) which shows the flowchart of the intersection space detection process of this embodiment. 本実施形態の交差空間検出処理のフローチャートを示す図(その2)である。It is FIG. (2) which shows the flowchart of the intersection space detection process of this embodiment. 本実施形態の飛び出し可能性算出処理のフローチャートを示す図である。It is a figure which shows the flowchart of the popping out possibility calculation process of this embodiment.

本実施形態に係る走行支援システムは、車両に搭載され、車両が走行する走路に、物体が飛び出す可能性を算出し、算出した飛び出し可能性に応じて、ユーザの運転支援を行うためのシステムである。以下、本発明の実施形態を図面に基づいて説明する。   The driving support system according to the present embodiment is a system that is mounted on a vehicle, calculates the possibility of an object jumping out on the road on which the vehicle runs, and performs driving support for the user according to the calculated jumping out possibility. is there. Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、走行支援システムの構成図を示す図である。   FIG. 1 is a diagram illustrating a configuration diagram of a driving support system.

走行支援システムは、図1に示すように、カメラ10、制御装置20、車両コントローラ30、スピーカ40、およびディスプレイ50から構成される。これらの構成は、CAN(Controller Area Network)などの車載LANにより接続され、互いにデータの授受を行うことができる。   As illustrated in FIG. 1, the driving support system includes a camera 10, a control device 20, a vehicle controller 30, a speaker 40, and a display 50. These components are connected by an in-vehicle LAN such as a CAN (Controller Area Network) and can exchange data with each other.

以下、各構成について説明する。   Each configuration will be described below.

カメラ10は、撮像素子上に複数の画素を備え、輝度画像を撮像するものであり、例えば、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)などが挙げられる。カメラ10は、車両前方の道路状況を連続的に撮像し、撮像された画像データは、制御装置20に送信される。なお、カメラ10としては、カラーの画像を撮像するものであっても、白黒の画像を撮像するものであってもよい。   The camera 10 includes a plurality of pixels on an image pickup device and picks up a luminance image. Examples of the camera 10 include a charge coupled device (CCD) and a complementary metal oxide semiconductor (CMOS). The camera 10 continuously captures road conditions ahead of the vehicle, and the captured image data is transmitted to the control device 20. Note that the camera 10 may capture a color image or a monochrome image.

図2は、カメラ10の設置例を示す。図2(a)はカメラ10を搭載する車両を側面から見た図であり、また図2(b)はカメラ10を搭載する車両を上方から見た図である。図2に示すように、本実施形態では、カメラ10を車両室内のフロントウィンドウ上部に、車両前方に向けて設置する。   FIG. 2 shows an installation example of the camera 10. 2A is a view of a vehicle on which the camera 10 is mounted as viewed from the side, and FIG. 2B is a view of the vehicle on which the camera 10 is mounted as viewed from above. As shown in FIG. 2, in the present embodiment, the camera 10 is installed on the upper part of the front window in the vehicle compartment toward the front of the vehicle.

X,Y,Z軸からなる車両座標系において、カメラ10の光軸LSは、図2に示すように、車両の走行方向(ドライバ正面方向)であるZ軸方向に向くように調整され、また車両の走行方向と直交するX軸方向が路面と平行となるように調整され、さらにY軸方向が路面と垂直になるように調整される。   In the vehicle coordinate system including the X, Y, and Z axes, the optical axis LS of the camera 10 is adjusted so as to face the Z-axis direction that is the vehicle traveling direction (driver front direction), as shown in FIG. The X-axis direction orthogonal to the traveling direction of the vehicle is adjusted to be parallel to the road surface, and further the Y-axis direction is adjusted to be perpendicular to the road surface.

図3は、ディスプレイ50の画面上に表示される車両前方の画像の一例を示す図である。図3に示すように、カメラ10により撮像された撮像画像は、画像左上の頂点を原点Oとするxy座標系(カメラ座標系)によって表され、原点Oから右方向へ延在する軸をx軸とし、原点から下へ延在する軸をy軸とする。図3に示すように、撮像画像には、立体の静止物である外壁などの構造物と、静止物であるレーンマークなどが含まれる。   FIG. 3 is a diagram illustrating an example of an image in front of the vehicle displayed on the screen of the display 50. As shown in FIG. 3, the captured image captured by the camera 10 is represented by an xy coordinate system (camera coordinate system) with the upper left vertex of the image as an origin O, and an axis extending rightward from the origin O is represented by x. Let the axis be the axis, and the axis extending downward from the origin be the y-axis. As shown in FIG. 3, the captured image includes a structure such as an outer wall that is a three-dimensional stationary object, a lane mark that is a stationary object, and the like.

図1に示すように、走行支援システムの制御装置20は、本実施形態に係る走行支援処理を実行するためのプログラムを格納したROM(Read Only Memory)21と、このROM21に格納されたプログラムを実行するCPU(Central Processing Unit)22と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)23と、を備える。なお、動作回路としては、CPU(Central Processing Unit)22に代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを用いることができる。   As shown in FIG. 1, the control device 20 of the driving support system includes a ROM (Read Only Memory) 21 storing a program for executing the driving support processing according to the present embodiment, and a program stored in the ROM 21. A CPU (Central Processing Unit) 22 to be executed and a RAM (Random Access Memory) 23 functioning as an accessible storage device are provided. As an operation circuit, instead of or together with the CPU (Central Processing Unit) 22, an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array). Etc. can be used.

次に、走行支援システムの制御装置20が備える処理機能について説明する。制御装置20は、画像取得機能、エッジ抽出機能、移動情報算出機能、最下点位置検出機能、境界線検出機能、交差空間検出機能、飛び出し可能性算出機能、属性情報付加機能、および出力機能を有する。   Next, the processing function with which the control apparatus 20 of a driving assistance system is provided is demonstrated. The control device 20 has an image acquisition function, an edge extraction function, a movement information calculation function, a lowest point position detection function, a boundary line detection function, an intersection space detection function, a pop-out possibility calculation function, an attribute information addition function, and an output function. Have.

以下、上述した制御装置20が実現する機能についてそれぞれ説明する。   Hereinafter, functions realized by the control device 20 described above will be described.

画像取得機能は、図3に示すような車両前方の画像データを、カメラ10から受信し、制御装置20のRAM23に格納する。なお、上述したように、カメラ10は車両前方の道路状況を連続的に撮像するため、画像取得機能は、カメラ10により連続的に撮像された車両前方の画像データを、フレームごとにRAM23に格納する。   The image acquisition function receives image data ahead of the vehicle as shown in FIG. 3 from the camera 10 and stores it in the RAM 23 of the control device 20. As described above, since the camera 10 continuously captures road conditions in front of the vehicle, the image acquisition function stores image data in front of the vehicle continuously captured by the camera 10 in the RAM 23 for each frame. To do.

エッジ抽出機能は、画像取得機能により取得された画像データから、物体の外延(輪郭)であるエッジを抽出する。エッジを抽出するための手法は、特に限定されず、本実施形態では、図3に示すように、構造物の左右両端などから、y軸方向に連続するエッジ成分を検出するSobelオペレータと、車両の進行方向と交差する方向の構造物の下端(構造物と路面との境界)などから、x軸方向に連続するエッジ成分を検出するSobelオペレータとを用いて、画像データ内に存在する物体のエッジ(y軸方向に連続するエッジ成分とx軸方向に連続するエッジ成分と)を抽出する。   The edge extraction function extracts an edge that is an extension (contour) of an object from the image data acquired by the image acquisition function. The method for extracting the edge is not particularly limited. In the present embodiment, as shown in FIG. 3, a Sobel operator that detects edge components continuous in the y-axis direction from the left and right ends of the structure, and the vehicle Of the object existing in the image data by using the Sobel operator that detects the edge component continuous in the x-axis direction from the lower end of the structure (boundary between the structure and the road surface) in the direction intersecting the traveling direction of Edges (an edge component continuous in the y-axis direction and an edge component continuous in the x-axis direction) are extracted.

移動情報算出機能は、エッジ抽出機能により抽出されたエッジ成分の移動速度および移動方向を算出する。さらに、移動情報算出機能は、x軸方向に移動するエッジ成分に対応する画素を、横速度情報を有する画素として検出し、またy軸方向に移動するエッジ成分に対応する画素を、縦速度情報を有する画素として検出する。   The movement information calculation function calculates the movement speed and movement direction of the edge component extracted by the edge extraction function. Further, the movement information calculation function detects a pixel corresponding to an edge component moving in the x-axis direction as a pixel having lateral velocity information, and detects a pixel corresponding to the edge component moving in the y-axis direction as vertical velocity information. It detects as a pixel which has.

ここで、図4に基づいて、移動情報算出機能によるエッジ成分の移動情報を算出する手法例を説明する。図4は、エッジ成分の移動情報を算出する手法例を説明するための図である。図4に示すように、図中の右方向をx軸の正方向、図中の上方向をy軸の正方向とする。説明の便宜のため、図4においては、エッジ成分がx軸の正方向(右方向)に移動する場合を例にして説明する。なお、エッジ成分がx軸の負方向やy軸方向、あるいは2次元的(斜め方向)に移動する場合においても、基本的な処理手法は共通する。また、x軸方向へ移動するエッジ成分の移動速度を算出する際には、y軸方向に連続するエッジ成分を用い、またy軸方向へ移動するエッジ成分の移動速度を算出する際には、x軸方向に連続するエッジ成分を用いることが好適である。   Here, based on FIG. 4, an example of a technique for calculating the movement information of the edge component by the movement information calculation function will be described. FIG. 4 is a diagram for explaining an example of a method for calculating movement information of edge components. As shown in FIG. 4, the right direction in the figure is the positive direction of the x-axis, and the upward direction in the figure is the positive direction of the y-axis. For convenience of explanation, FIG. 4 will be described with an example in which the edge component moves in the positive direction (right direction) of the x axis. The basic processing method is common even when the edge component moves in the negative x-axis direction, the y-axis direction, or two-dimensionally (obliquely). Further, when calculating the movement speed of the edge component moving in the x-axis direction, the edge component continuous in the y-axis direction is used, and when calculating the movement speed of the edge component moving in the y-axis direction, It is preferable to use edge components that are continuous in the x-axis direction.

まず、移動情報算出機能は、エッジ画像に対して2値化処理を行う。2値化処理とは、エッジの検出された位置の画素を1とし、エッジの検出されなかった位置の画素を0とする処理である。図4(a)は、抽出されたy軸方向に連続するエッジ成分を2値化した画像の一例を示す。次に、図4(b)に示すように、生成された2値化画像に対して、細線化処理を行い、検出されたエッジ成分のエッジ幅を所定画素幅になるまで縮小する。本実施形態では、図4(b)に示すように、所定画素幅として1画素になるまでエッジのエッジ幅を細線化する。このようにエッジを所定の画素幅になるまで細線化することによって、エッジの中心となる中心位置が設定される。なお、本実施形態では、1画素に細線化する例を示すが、細線化する画素数は特に限定されない。   First, the movement information calculation function performs binarization processing on the edge image. The binarization process is a process in which a pixel at a position where an edge is detected is set to 1 and a pixel at a position where no edge is detected is set to 0. FIG. 4A shows an example of an image obtained by binarizing the extracted edge components continuous in the y-axis direction. Next, as shown in FIG. 4B, thinning processing is performed on the generated binarized image, and the edge width of the detected edge component is reduced to a predetermined pixel width. In the present embodiment, as shown in FIG. 4B, the edge width of the edge is thinned until the predetermined pixel width becomes one pixel. Thus, by thinning the edge until it reaches a predetermined pixel width, the center position that is the center of the edge is set. In the present embodiment, an example of thinning one pixel is shown, but the number of pixels to be thinned is not particularly limited.

次に、細線化されたエッジのエッジ幅が一定の幅となるよう、エッジをx軸方向に膨張させる。本実施形態では、図4(c)に示すように、エッジの中心位置x0からエッジの移動方向(x軸の正方向)に1画素膨張させるとともに、エッジの中心位置x0からエッジの移動方向と反対方向(x軸の負方向)に1画素膨張させて、エッジ幅を3画素に膨張させる。これにより、抽出されたエッジを正規化し、各エッジの幅が均一なエッジ画像を得ることができる。   Next, the edge is expanded in the x-axis direction so that the edge width of the thinned edge becomes a constant width. In this embodiment, as shown in FIG. 4C, one pixel is expanded from the edge center position x0 in the edge movement direction (the positive direction of the x axis), and the edge movement direction from the edge center position x0 is The edge width is expanded to 3 pixels by expanding one pixel in the opposite direction (the negative direction of the x-axis). As a result, the extracted edges can be normalized, and an edge image in which the width of each edge is uniform can be obtained.

次に、移動情報算出機能は、カウントアップ処理を行う。ここで、カウントアップ処理とは、エッジが検出された画素の位置に対応するメモリアドレスの値をカウントアップし、エッジが検出されなかった画素の位置に対応するメモリアドレスの値を初期化する処理である。以下、図4(c)〜(f)に基づいて移動情報算出機能によるエッジのカウントアップ処理について説明する。   Next, the movement information calculation function performs a count-up process. Here, the count-up process is a process for counting up the value of the memory address corresponding to the position of the pixel where the edge is detected and initializing the value of the memory address corresponding to the position of the pixel where the edge is not detected. It is. Hereinafter, the edge count-up processing by the movement information calculation function will be described with reference to FIGS.

図4(c)に示すように、エッジはあるフレームにおいて位置x0にエッジの中心位置がある。そして、その中心位置からエッジの移動方向に1画素の位置x0+1に膨張され、同様に、中心位置からエッジの移動方向と反対方向に1画素の位置x0−1に膨張されている。このようなエッジが検出された位置「x0−1」、「x0」、「x0+1」に対応するメモリアドレスのカウント値は「+1」カウントアップされる。他方、エッジが検出されなかった位置に対応するメモリアドレスのカウント値は、リセットされる。   As shown in FIG. 4C, the edge has a center position of the edge at a position x0 in a certain frame. Then, it is expanded from the center position to the position x0 + 1 of one pixel in the edge moving direction, and similarly expanded from the center position to the position x0-1 of one pixel in the direction opposite to the edge moving direction. The count value of the memory address corresponding to the position “x0-1”, “x0”, “x0 + 1” where such an edge is detected is incremented by “+1”. On the other hand, the count value of the memory address corresponding to the position where the edge is not detected is reset.

例えば、図4(d)では、時刻tにおいて、位置「x0−1」、「x0」、「x0+1」にエッジが検出されている。このため、それぞれの位置に対応するメモリアドレスのカウント値が各「1」カウントアップされる。その結果、位置「x0+1」のカウント値は「1」、位置「x0」のカウント値は「3」、位置「x0−1」のカウント値は「5」である。   For example, in FIG. 4D, edges are detected at positions “x0-1”, “x0”, and “x0 + 1” at time t. Therefore, the count value of the memory address corresponding to each position is incremented by “1”. As a result, the count value at the position “x0 + 1” is “1”, the count value at the position “x0” is “3”, and the count value at the position “x0-1” is “5”.

次に、図4(e)に示すように、時刻t+1になってもエッジが移動していないので、位置「x0−1」、「x0」、「x0+1」の各位置でエッジが検出される。このため、位置「x0−1」、「x0」、「x0+1」のカウント値をさらに1ずつカウントアップする。その結果、位置「x0+1」のカウント値は2、位置「x0」のカウント値は4、位置「x0−1」のカウント値は6となる。   Next, as shown in FIG. 4E, since the edge does not move even at time t + 1, the edge is detected at each of the positions “x0-1”, “x0”, and “x0 + 1”. . Therefore, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are further incremented by one. As a result, the count value at position “x0 + 1” is 2, the count value at position “x0” is 4, and the count value at position “x0-1” is 6.

さらに、図4(f)に示すように、時刻t+2では、エッジがx軸の正方向に1画素シフトして位置「x0」、「x0+1」、「x0+2」の位置でエッジが検出される。このため、エッジが検出された位置「x0」、「x0+1」、「x0+2」に対応するメモリアドレスのカウント値はカウントアップされる。他方、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「ゼロ」となる。その結果、図4(f)に示すように位置「x0+2」のカウント値は1、位置「x0+1」のカウント値は3、位置「x0」のカウント値は5となる。さらに、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「0」になる。   Further, as shown in FIG. 4F, at time t + 2, the edge is shifted by one pixel in the positive direction of the x-axis, and the edge is detected at positions “x0”, “x0 + 1”, and “x0 + 2”. Therefore, the count value of the memory address corresponding to the positions “x0”, “x0 + 1”, and “x0 + 2” where the edge is detected is counted up. On the other hand, the count value at the position “x0-1” where no edge is detected is reset to “zero”. As a result, the count value at position “x0 + 2” is 1, the count value at position “x0 + 1” is 3, and the count value at position “x0” is 5, as shown in FIG. Further, the count value of the position “x0-1” where no edge is detected is reset to “0”.

このように、移動情報算出機能は、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、エッジの検出されなかった位置に対応するメモリアドレスのカウント値をリセットする。   As described above, the movement information calculation function counts up the count value of the memory address corresponding to the position where the edge is detected, and resets the count value of the memory address corresponding to the position where the edge is not detected.

物体が自車両に対して一定角度で近づく場合、連続するフレーム間において、エッジは同じ位置で複数回検出される場合がある。例えば、図4に示す例では、連続する時刻tのフレームと時刻t+1のフレームにおいて、エッジは位置x0において2回検出される。したがって、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップしていくと、そのカウント値はその位置においてエッジが検出されている時間(フレーム数、滞留時間)と相関する。   When the object approaches the host vehicle at a certain angle, the edge may be detected a plurality of times at the same position between successive frames. For example, in the example shown in FIG. 4, the edge is detected twice at the position x0 in the continuous frame at time t and frame at time t + 1. Therefore, when the count value of the memory address corresponding to the position where the edge is detected is counted up, the count value correlates with the time (number of frames, dwell time) at which the edge is detected at that position.

次に、移動情報算出機能は、各画素においてカウントしたカウント値の傾きを算出し、この傾きに基づいて、エッジの移動速度および移動方向を算出する。   Next, the movement information calculation function calculates the inclination of the count value counted in each pixel, and calculates the movement speed and movement direction of the edge based on this inclination.

例えば、図4(e)の場合では、位置「x0−1」、「x0」、「x0+1」のカウント値がそれぞれ「6」、「4」、「2」である。位置「x0−1」のカウント値「6」から「x0+1」のカウント値「2」を引くと、カウント値の傾きHは、H=(6−2)/2=2と算出される。   For example, in the case of FIG. 4E, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are “6”, “4”, and “2”, respectively. When the count value “2” of “x0 + 1” is subtracted from the count value “6” of the position “x0-1”, the slope H of the count value is calculated as H = (6-2) / 2 = 2.

これは、H={(エッジが位置x0−1に移動してから現在までの時間)−(エッジが位置x0+1に移動した後の時間)}/(2画素)を意味するので、これによりエッジが位置x0のある1画素を通過するのに要する時間(フレーム数)を算出することができる。   This means H = {(time from the edge moving to the position x0-1 to the present) − (time after the edge moves to the position x0 + 1)} / (2 pixels). It is possible to calculate the time (number of frames) required to pass one pixel at position x0.

したがって、カウント値の傾きHは、エッジが1画素移動するために何フレームを要したかに相当し、このカウント値の傾きHに基づいて、エッジの移動速度1/Hを算出できる。例えば、図4(e)では1画素移動するのに2フレームを要することになるので、エッジの移動速度は1/2(画素/フレーム)と算出される。   Therefore, the slope H of the count value corresponds to how many frames are required for the edge to move by one pixel, and the edge moving speed 1 / H can be calculated based on the slope H of the count value. For example, in FIG. 4E, two frames are required to move one pixel, so the edge moving speed is calculated as 1/2 (pixel / frame).

続いて、移動情報算出機能は、カウント値の大小に基づいて、エッジの移動方向を判断する。エッジの無い位置にエッジが移動し、新たにエッジが検出された位置のカウント値は1となるから、各位置のカウント値の中では最も小さな値となる。したがって、エッジが移動する方向のカウント値は小さく、エッジが移動する方向と反対方向のカウント値は大きくなる。この傾向を利用して、エッジの移動方向を判断することができる。   Subsequently, the movement information calculation function determines the edge movement direction based on the count value. Since the edge moves to a position where there is no edge and the count value at the position where the edge is newly detected is 1, the count value at each position is the smallest value. Therefore, the count value in the direction in which the edge moves is small, and the count value in the direction opposite to the direction in which the edge moves is large. By using this tendency, the moving direction of the edge can be determined.

以上のように、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップすることにより、カウントアップされたカウント値の傾きに基づいてエッジの移動速度および移動方向を算出することができる。   As described above, by counting up the count value of the memory address corresponding to the position where the edge is detected, the moving speed and moving direction of the edge can be calculated based on the slope of the counted up value. .

さらに、移動情報算出機能は、算出したエッジの移動速度および移動方向に基づいて、時間の経過とともにx軸方向に移動したエッジに対応する画素を、横速度情報を有する画素として検出し、また、時間の経過とともにy軸方向に移動したエッジに対応する画素を、縦速度情報を有する画素として検出する。   Furthermore, the movement information calculation function detects a pixel corresponding to the edge moved in the x-axis direction with the passage of time as a pixel having lateral speed information based on the calculated movement speed and movement direction of the edge. Pixels corresponding to edges that have moved in the y-axis direction over time are detected as pixels having longitudinal speed information.

図5は、横速度情報を有する画素を説明するための図である。また、図6は、縦速度情報を有する画素を説明するための図である。図5においては、自車両の進行方向の中央位置から見て、画像データ内をx軸の負方向(左方向)に移動するエッジに対応する画素を白丸で、自車両の進行方向の中央位置から見て、画像データ内をx軸の正方向(右方向)に移動するエッジに対応する画素を黒丸で表わす。また、図6においては、画像データ内をy軸方向の正方向(自車両進行方向の遠方から手前)へ移動するエッジに対応する画素を白丸で表わし、y軸方向の負方向に移動するエッジに対応する画素の記載は省略する。   FIG. 5 is a diagram for explaining a pixel having lateral velocity information. FIG. 6 is a diagram for explaining a pixel having vertical speed information. In FIG. 5, when viewed from the center position in the traveling direction of the host vehicle, the pixel corresponding to the edge moving in the negative direction (left direction) of the x axis in the image data is a white circle, and the center position in the traveling direction of the host vehicle. , Pixels corresponding to edges that move in the positive direction (right direction) of the x axis in the image data are represented by black circles. In FIG. 6, pixels corresponding to edges that move in the image data in the positive direction in the y-axis direction (from the far side to the front in the traveling direction of the host vehicle) are represented by white circles, and edges that move in the negative direction in the y-axis direction. Description of pixels corresponding to is omitted.

図5に示す横速度情報を有する画素は、x軸方向に移動するエッジに対応する画素であり、横速度情報を有する画素がy軸方向に沿って連続した画素列である第2画素列が検出される。例えば、図5に示す場面例では、横速度情報を有する画素がy軸方向に連続した第2画素列VL1,VL2が検出される。一方、図6に示す縦速度情報を有する画素は、y軸方向に移動するエッジに対応する画素であり、縦速度情報を有する画素がx軸方向に沿って連続した画素列である第1画素列が検出される。例えば、図6に示すように、縦速度情報を有する画素がy軸方向に連続した第1画素列HL1,HL2が検出される。なお、自車両の進行方向に延伸するレーンマークや、自車両の進行方向に延伸する構造物と路面との走路境界線から検出されるエッジは、斜め方向に移動するエッジであり、このようなエッジに対応する画素は、横速度情報と縦速度情報とを有する。そのため、レーンマークや、自車両の進行方向に延伸する構造物と路面との走路境界線から検出されるエッジに対応する画素は、横速度情報を有する画素を示す図5および縦速度情報を有する画素を示す図6の両方において検出される。このように、横速度情報を有する画素からはy軸方向に連続する第2画素列を、縦速度情報を有する画素からはx軸方向に連続する第1画素列をそれぞれ検出することができる。   The pixels having the lateral velocity information shown in FIG. 5 are pixels corresponding to edges that move in the x-axis direction, and the second pixel column is a pixel row in which the pixels having the lateral velocity information are continuous along the y-axis direction. Detected. For example, in the scene example shown in FIG. 5, the second pixel columns VL1 and VL2 in which pixels having lateral velocity information are continuous in the y-axis direction are detected. On the other hand, the pixels having the vertical velocity information shown in FIG. 6 are pixels corresponding to the edges moving in the y-axis direction, and the first pixels are pixels in which the pixels having the vertical velocity information are continuous along the x-axis direction. A column is detected. For example, as shown in FIG. 6, first pixel rows HL1 and HL2 in which pixels having longitudinal speed information are continuous in the y-axis direction are detected. In addition, the lane mark extending in the traveling direction of the host vehicle and the edge detected from the road boundary line between the structure extending in the traveling direction of the host vehicle and the road surface are edges that move in an oblique direction. The pixel corresponding to the edge has horizontal speed information and vertical speed information. Therefore, the pixel corresponding to the edge detected from the lane mark or the road boundary line between the road structure and the structure extending in the traveling direction of the host vehicle has FIG. 5 showing the pixel having the lateral speed information and the longitudinal speed information. Detected in both FIG. 6 showing the pixels. In this way, it is possible to detect the second pixel row that is continuous in the y-axis direction from the pixels having the lateral velocity information, and the first pixel row that is continuous in the x-axis direction from the pixels having the vertical velocity information.

最下点位置検出機能は、画像データ中の所定領域において、横速度情報を有する画素が複数連続してなる画素列を構成する各画素のうち、y軸方向において最も下側に位置する画素の位置を最下点位置として検出する。最下点位置を検出する手法は特に限定されないが、本実施形態では、以下に説明する手法で最下点位置を検出する。なお、最下点位置が検出される画素列は、第2画素列のようにy軸方向に沿って連続する画素列に限られず、斜め方向(二次元方向)に連続する画素列も含まれる。   The lowest point position detection function is a function for detecting the pixel located at the lowest side in the y-axis direction among the pixels constituting a pixel row in which a plurality of pixels having lateral velocity information are continuously arranged in a predetermined region in the image data. The position is detected as the lowest point position. The method for detecting the lowest point position is not particularly limited, but in the present embodiment, the lowest point position is detected by the method described below. In addition, the pixel column in which the lowest point position is detected is not limited to a pixel column that is continuous along the y-axis direction like the second pixel column, and includes a pixel column that is continuous in an oblique direction (two-dimensional direction). .

図7は、図5と同様に横速度情報を有する画素を示しており、最下点位置の検出する手法例を説明するための図である。なお、図7においては、横速度情報を有する画素のうち、最下点位置に位置する画素を実線の黒丸で示し、最下点位置に位置する画素以外の画素を破線の白丸で示している。まず、最下点位置検出機能は、図7に示すように、画像データ上に短冊状の複数の領域である短冊領域1〜12を設定する。   FIG. 7 shows pixels having lateral velocity information as in FIG. 5, and is a diagram for explaining an example of a technique for detecting the lowest point position. In FIG. 7, among pixels having lateral velocity information, a pixel located at the lowest point position is indicated by a solid black circle, and pixels other than the pixels located at the lowest point position are indicated by broken white circles. . First, as shown in FIG. 7, the lowest point position detection function sets strip regions 1 to 12, which are a plurality of strip-shaped regions, on image data.

そして、最下点位置検出機能は、画像の下側から上側に向かって各短冊領域を走査し、横速度情報を有する画素が所定数以上連続してなる画素列を構成する画素のうち、y軸方向において最も下側に位置する画素の位置を最下点位置として検出する。また、各短冊領域において検出された横速度情報を有する複数の画素のうち、所定閾値内の移動速度で移動するエッジに対応する画素が複数連続してなる画素列を構成する各画素および/または所定閾値内の方向に移動するエッジに対応する画素が複数連続してなる画素列を構成する各画素をグループ化し、グループ化された画素列のうち、最も下側に位置する画素を最下点位置として検出する。また、例えば、図5に示す横速度情報を有する画素の情報と、図6に示す縦速度情報を有する画素の情報から、図5に示す縦速度情報を有する画素のみから構成される第2画素列を検出し、第2画素列のうち最も下側に位置する画素を最下点位置として検出する。このように最下点位置を検出することで、図7に示す例では、最下点位置BP1−1〜BP12−2が検出される。なお、図7において、各短冊領域1〜12において検出された最下点位置はBPi−jのように表される。ここで、iは、最下点位置が検出された短冊領域の番号を示しており、jは1つの短冊領域において検出された最下点位置の数を下側から数えた番号を示している。例えば、短冊領域1の下側から3つ目に検出された最下点位置は、最下点位置BP1−3と表示され、短冊領域2の下側から4つ目に検出された最下点位置は、最下点位置BP2−4と表示される。なお、図7においては、構造物と路面との境界線において検出された最下点位置であるBP1−3,BP2−3,BP2−4,BP3−3,BP4−3,BP4−4,およびBP5−3についてのみ番号を記載し、それ以外の最下点位置については番号の記載を省略している。   The lowest point position detection function scans each strip region from the lower side to the upper side of the image, and y among the pixels constituting the pixel row in which a predetermined number or more of pixels having the lateral velocity information are continuous. The position of the lowest pixel in the axial direction is detected as the lowest point position. Further, out of a plurality of pixels having lateral velocity information detected in each strip region, each pixel constituting a pixel row in which a plurality of pixels corresponding to an edge that moves at a moving speed within a predetermined threshold value and / or Group the pixels that make up a pixel column consisting of a series of pixels that correspond to edges that move in a direction within a predetermined threshold, and select the lowest pixel in the grouped pixel column Detect as position. In addition, for example, from the pixel information having the horizontal velocity information shown in FIG. 5 and the pixel information having the vertical velocity information shown in FIG. A column is detected, and the pixel located at the lowest side in the second pixel column is detected as the lowest point position. By detecting the lowest point position in this manner, the lowest point positions BP1-1 to BP12-2 are detected in the example shown in FIG. In FIG. 7, the lowest point position detected in each of the strip regions 1 to 12 is represented as BPi-j. Here, i indicates the number of the strip area where the lowest point position is detected, and j indicates the number obtained by counting the number of the lowest point positions detected in one strip area from the lower side. . For example, the lowest point position detected from the bottom side of the strip area 1 is displayed as the lowest point position BP1-3, and the bottom point position detected from the bottom side of the strip area 2 is the fourth point. The position is displayed as the lowest point position BP2-4. In FIG. 7, BP1-3, BP2-3, BP2-4, BP3-3, BP4-3, BP4-4, and BP4-4, which are the lowest point positions detected at the boundary line between the structure and the road surface, are shown. Numbers are described only for BP5-3, and numbers are omitted for the lowest point position other than that.

次に、境界線検出機能について説明する。境界線検出機能は、車両の進行方向(実空間上のZ軸方向)に沿って、最下点位置検出機能により検出された最下点位置同士を結び、最下点位置同士を結んでできた直線を、自車両が走行する走路における境界線として検出する。検出される境界線としては、例えば、レーンマーク、ガードレール、縁石、外壁と路面との設定を結ぶ直線、立体物と路面との接点を結ぶ直線、および路面とそれ以外の領域との直線などが含まれる。   Next, the boundary line detection function will be described. The boundary line detection function connects the lowest point positions detected by the lowest point position detection function and connects the lowest point positions along the traveling direction of the vehicle (Z-axis direction in real space). The detected straight line is detected as a boundary line on the runway on which the vehicle travels. Examples of detected boundary lines include lane marks, guardrails, curbs, straight lines that connect the setting of the outer wall and the road surface, straight lines that connect the contact points between the three-dimensional object and the road surface, and straight lines between the road surface and other areas. included.

以下において、境界線検出機能による境界線の検出方法の一例について説明する。図8は、境界線領域を抽出する手法例を説明するための図である。   Hereinafter, an example of a boundary line detection method using the boundary line detection function will be described. FIG. 8 is a diagram for explaining an example of a technique for extracting a boundary line region.

境界線検出機能は、例えば、図8に示すように、X軸方向に−5.25m 未満、−5.25以上−3.5m未満、−3.5m以上−1.75m未満、−1.75m以上0m未満、0m以上1.75m未満、1.75m以上3.5m未満、3.5m以上5.25m未満、および5.25m以上の8つの領域を設定する。また、Z軸方向に0m〜10m、10m〜20m、20m〜30m、30m〜40m、および40m〜50mの5つの領域を設定する。そして、X軸方向、およびZ軸方向に設定した各領域で区切られる8×5の2次元領域を設定する。   For example, as shown in FIG. 8, the boundary line detection function is less than −5.25 m, −5.25 or more and less than −3.5 m, −3.5 m or more and less than −1.75 m, −1. Eight regions of 75 m or more and less than 0 m, 0 m or more and less than 1.75 m, 1.75 m or more and less than 3.5 m, 3.5 m or more and less than 5.25 m, and 5.25 m or more are set. Moreover, five areas of 0 m to 10 m, 10 m to 20 m, 20 m to 30 m, 30 m to 40 m, and 40 m to 50 m are set in the Z-axis direction. Then, an 8 × 5 two-dimensional area divided by the areas set in the X-axis direction and the Z-axis direction is set.

設定した8×5の2次元領域は、それぞれの領域を識別するための名称が付与され、各領域は列(Z軸領域)iと行(X軸領域)jとを用いて領域ijのように表される。例えば、図8に示すように、1列目の1行目に存在する領域は領域11と表し、1列目の2行目に存在する領域は領域12と表し、2列目の1行目に存在する領域は領域21のように表す。また、各列によって構成される領域を領域i0と表し、各行によって表される領域を領域0jと表すようにする。例えば図8に示す例では、4列目の1列全体によって構成される領域は領域40と表される。   The set 8 × 5 two-dimensional region is given a name for identifying each region, and each region is like a region ij using a column (Z-axis region) i and a row (X-axis region) j. It is expressed in For example, as shown in FIG. 8, the region existing in the first row of the first column is represented as region 11, and the region present in the second row of the first column is represented as region 12, and the first row in the second column. A region existing in is represented as a region 21. In addition, a region constituted by each column is represented as a region i0, and a region represented by each row is represented as a region 0j. For example, in the example shown in FIG. 8, a region constituted by the entire first column of the fourth column is represented as a region 40.

続いて、境界線検出機能は、xy平面上において抽出された最下点位置の位置座標を、ZX平面における3次元位置座標に変換する。例えば、境界線検出機能は、図7に示す最下点位置BP1−1を、図8に示す3次元座標値RB1−1に変換する。また、同様に、最下点位置BP1−2〜BP12−2を、それぞれ3次元座標値RB1−2〜RB12−2に変換する。なお、検出された最下点位置が路面上に存在しない場合、xy平面上において抽出された最下点位置の位置座標は、ZX座標の領域外に投影されることとなり、図8に示すZX平面における3次元位置座標に変換されない。   Subsequently, the boundary line detection function converts the position coordinate of the lowest point position extracted on the xy plane into a three-dimensional position coordinate on the ZX plane. For example, the boundary detection function converts the lowest point position BP1-1 shown in FIG. 7 into a three-dimensional coordinate value RB1-1 shown in FIG. Similarly, the lowest point positions BP1-2 to BP12-2 are converted into three-dimensional coordinate values RB1-2 to RB12-2, respectively. When the detected lowest point position does not exist on the road surface, the position coordinates of the lowest point position extracted on the xy plane are projected outside the ZX coordinate area, and the ZX shown in FIG. It is not converted to a three-dimensional position coordinate on the plane.

そして、境界線検出機能は、変換した3次元座標値RB1−1〜RB12−2が、図8に示すようなX軸範囲とZ軸範囲とを規定した2次元領域のどの領域に該当するかを判定する。すなわち、境界線検出機能は、最下点位置の3次元座標がこの8×5の領域のいずれかに含まれる場合には、最下点位置が含まれる領域のカウント値に1加算し、最下点位置の3次元位置分布を算出する。例えば、座標値RB1−1は、領域35に含まれることから、領域35のカウント値に1を加算する。   In the boundary detection function, which region of the two-dimensional region in which the converted three-dimensional coordinate values RB1-1 to RB12-2 define the X-axis range and the Z-axis range as shown in FIG. Determine. That is, when the three-dimensional coordinate of the lowest point position is included in any of the 8 × 5 areas, the boundary detection function adds 1 to the count value of the area including the lowest point position, and A three-dimensional position distribution of the lower point position is calculated. For example, since the coordinate value RB1-1 is included in the area 35, 1 is added to the count value of the area 35.

そして、境界線検出機能は、最下点位置の3次元位置分布に基づいて、境界線が存在する可能性が高い領域を境界線領域として抽出する。すなわち、3次元位置分布において、同じX軸領域で複数のZ軸領域にカウント値が存在する列を、境界線が存在している境界線領域として抽出する。例えば、図8に示す例では、領域10、領域20、領域30、領域50、領域60、領域70、および領域80の複数のZ軸領域にカウント値が存在するため、境界線検出機能は、これらの領域10、領域20、領域30、領域50、領域60、領域70、および領域80を境界線領域として抽出する。   Then, the boundary line detection function extracts an area where the boundary line is highly likely to exist as the boundary line area based on the three-dimensional position distribution of the lowest point position. That is, in the three-dimensional position distribution, a column having count values in a plurality of Z-axis areas in the same X-axis area is extracted as a boundary line area in which a boundary line exists. For example, in the example shown in FIG. 8, since the count value exists in a plurality of Z-axis regions of region 10, region 20, region 30, region 50, region 60, region 70, and region 80, the boundary line detection function is These region 10, region 20, region 30, region 50, region 60, region 70, and region 80 are extracted as boundary line regions.

次に、境界線検出機能は、抽出した各境界線領域内において、境界線を示す直線を直線近似により求める。図9は、境界線を検出する手法例を説明するための図である。境界線検出機能により、図8に示す領域10から、図9に示すように境界線L1が検出される。また同様に、領域20から境界線L2が、領域30から境界線L3が、領域50から境界線L4が、領域60から境界線L5が、領域70から境界線L6が、領域80から境界線L7が検出される。すなわち、図9に示す例では、構造物の最下点位置から境界線L1が、およびレーンマークの両端から境界線L2、L3、L4、L5、L6、L7が順次検出される。   Next, the boundary line detection function obtains a straight line indicating the boundary line by linear approximation in each extracted boundary line region. FIG. 9 is a diagram for explaining an example of a technique for detecting a boundary line. As shown in FIG. 9, the boundary line L1 is detected from the area 10 shown in FIG. 8 by the boundary line detection function. Similarly, the boundary line L2 from the region 20, the boundary line L3 from the region 30, the boundary line L4 from the region 50, the boundary line L5 from the region 60, the boundary line L6 from the region 70, and the boundary line L7 from the region 80. Is detected. That is, in the example shown in FIG. 9, the boundary line L1 is sequentially detected from the lowest point position of the structure, and the boundary lines L2, L3, L4, L5, L6, and L7 are sequentially detected from both ends of the lane mark.

さらに、境界線検出機能は、検出した境界線が、構造物と走路との境界線である走路境界線を示す境界線であるか、あるいはレーンマークを示す境界線であるかを判定する。例えば、境界線検出機能は、自車両が走行する走路の中心位置から右側の領域または左側の領域において、自車両が走行する走路の中心位置から近い2つの境界線(さらにその2つの境界線よりも遠い位置に2つの境界線がある場合は、その2つの境界線も含む)はレーンマークの両端を示す直線であると判断し、これら一対の境界線をレーンマークとして検出する。例えば、図9に示す場面例においては、自車両の走行する走路の中心位置よりも左側の領域において、走路の中心位置から1番目に近い境界線L2と2番目に近い境界線L3はレーンマークであると判定される。一方、走路の中心位置から3番目に近い境界線L1は、境界線L1と対になる境界線が存在しないため、レーンマークではなく、構造物と走路との境界を示す走路境界線であると判定される。また、自車両の走行する走路の中心位置よりも右側の領域において、走路の中心位置から1番目に近い境界線L4と2番目に近い境界線L5、および走路の中心位置から3番目に近い境界線L6と4番目に近い境界線L7はレーンマークであると判定される。   Further, the boundary line detection function determines whether the detected boundary line is a boundary line indicating a road boundary line that is a boundary line between the structure and the road, or a boundary line indicating a lane mark. For example, in the boundary line detection function, two boundary lines that are closer to the center position of the traveling path on which the host vehicle travels (in addition to the two boundary lines) If there are two boundary lines at a far position, it is determined that the two boundary lines (including the two boundary lines) are straight lines indicating both ends of the lane mark, and these pair of boundary lines are detected as lane marks. For example, in the scene example shown in FIG. 9, in the region on the left side of the center position of the runway on which the host vehicle travels, the boundary line L2 that is the first closest to the center position of the runway and the boundary line L3 that is the second closest to the center position are lane marks. It is determined that On the other hand, the boundary line L1 that is the third closest from the center position of the runway is not a lane mark but a runway boundary line that indicates the boundary between the structure and the runway because there is no boundary line that is paired with the boundary line L1. Determined. Further, in the region on the right side of the center position of the runway on which the host vehicle travels, the boundary line L4 that is the first closest to the center position of the runway, the boundary line L5 that is the second closest to the center position, and the boundary that is the third closest to the center position of the runway The boundary line L7 closest to the line L6 is determined to be a lane mark.

そして、境界線検出機能は、レーンマークと判定された境界線を統合し、レーンマークと走路境界線とを検出する。図10は、境界線に基づいて検出されるレーンマークと走路境界線とを説明するための図である。図10に示す場面例において、境界線検出機能は、境界線L2と境界線L3とをレーンマークLL1として、また境界線L4と境界線L5はレーンマークRL1として、そして境界線L6と境界線L7はレーンマークRL2として、それぞれ統合する。一方、レーンマークとして統合されなかった境界線L1は、構造物と走路との境界線を表わす走路境界線LB1とする。なお、境界線検出機能は、統合されたレーンマークの位置を、各両端の境界線の中央位置とする。   Then, the boundary line detection function integrates the boundary lines determined to be lane marks, and detects the lane mark and the road boundary line. FIG. 10 is a diagram for explaining the lane mark and the road boundary line detected based on the boundary line. In the scene example shown in FIG. 10, the boundary line detection function performs the boundary lines L2 and L3 as lane marks LL1, the boundary lines L4 and L5 as lane marks RL1, and the boundary lines L6 and L7. Are integrated as a lane mark RL2. On the other hand, the boundary line L1 that is not integrated as a lane mark is defined as a road boundary line LB1 that represents the boundary line between the structure and the road. The boundary line detection function sets the position of the integrated lane mark as the center position of the boundary lines at both ends.

続いて、交差空間検出機能について説明する。交差空間検出機能は、最下点位置に基づいて、自車両の進行方向の空間と交差する空間である交差空間を検出する。   Next, the intersection space detection function will be described. The intersection space detection function detects an intersection space that is a space that intersects the space in the traveling direction of the host vehicle based on the lowest point position.

以下において、交差空間を検出するための方法について説明する。   Hereinafter, a method for detecting the intersection space will be described.

交差空間検出機能は、縦速度情報を有する複数の画素がx軸方向に沿って連続する第1画素列を検出する。図11は、第1画素列を説明するための図である。図11において、縦速度情報を有する複数の画素のうち、第1画素列を構成する画素を実線で、第1画素列を構成しない画素を破線で示す。例えば、図11に示す場面例では、縦速度情報を有する複数の画素がx軸方向に沿って連続した第1画素列HL1が検出され、同様に、縦速度情報を有する複数の画素がx軸方向に沿って連続した第1画素列HL2が検出される。   The intersecting space detection function detects a first pixel row in which a plurality of pixels having longitudinal velocity information are continuous along the x-axis direction. FIG. 11 is a diagram for explaining the first pixel column. In FIG. 11, among a plurality of pixels having longitudinal speed information, pixels constituting the first pixel column are indicated by a solid line, and pixels not constituting the first pixel column are indicated by a broken line. For example, in the scene example shown in FIG. 11, a first pixel row HL1 in which a plurality of pixels having vertical speed information is continuous along the x-axis direction is detected, and similarly, a plurality of pixels having vertical speed information are detected on the x-axis. A first pixel row HL2 continuous along the direction is detected.

また、交差空間検出機能は、横速度情報を有する複数の画素がy軸方向に沿って連続する画素列であって、最下点位置を含む画素列である第2画素列を検出する。図12は、第2画素列を説明するための図である。図12では、横速度情報を有する複数の画素のうち、第2画素列を構成する画素を実線の白丸で、第2画素列を構成しない画素を破線の白丸で示す。さらに、図12では、最下点位置に位置する画素を実線の黒丸で示す。例えば、図12に示す場面例では、最下点位置BP1から横速度情報を有する複数の画素がy軸方向に沿って連続した第2画素列VL1が検出され、同様に、最下点位置BP2から横速度情報を有する複数の画素がy軸方向に沿って連続した第2画素列VL2が検出される。   The intersecting space detection function detects a second pixel row that is a pixel row in which a plurality of pixels having lateral velocity information are continuous along the y-axis direction and includes the lowest point position. FIG. 12 is a diagram for explaining the second pixel column. In FIG. 12, among a plurality of pixels having lateral velocity information, pixels constituting the second pixel column are indicated by solid white circles, and pixels not constituting the second pixel column are indicated by broken white circles. Further, in FIG. 12, the pixel located at the lowest point position is indicated by a solid black circle. For example, in the example of the scene shown in FIG. 12, a second pixel row VL1 in which a plurality of pixels having lateral velocity information from the lowest point position BP1 is continuous along the y-axis direction is detected, and similarly, the lowest point position BP2 , A second pixel row VL2 in which a plurality of pixels having lateral velocity information are continuous along the y-axis direction is detected.

そして、交差空間検出機能は、互いに交わる第1画素列および第2画素列を2辺とし、第1画素列と第2画素列との交点Pを1の角とする矩形状の領域を対象領域として設定する。また対象領域は、対象領域のx軸方向の長さを対象領域の幅wとし、また対象領域のy軸方向の長さを対象領域の高さhとして設定される。ここで、図13は、第1画素列と第2画素列とにより設定された対象領域を説明するための図である。図13において、第1画素列と第2画素列との交点Pを黒丸で示している。   The intersecting space detection function is a target region that is a rectangular region in which the first pixel column and the second pixel column intersect with each other are two sides, and the intersection P between the first pixel column and the second pixel column is one corner. Set as. In addition, the length of the target area in the x-axis direction is set as the width w of the target area, and the length of the target area in the y-axis direction is set as the height h of the target area. Here, FIG. 13 is a diagram for explaining a target region set by the first pixel column and the second pixel column. In FIG. 13, the intersection P between the first pixel column and the second pixel column is indicated by a black circle.

例えば、図13に示す場面例において、交差空間検出機能は、第1画素列HL1と第2画素列VL1とを2辺とし、第1画素列HL1と第2画素列VL1との交点Pを1つの角とする領域である対象領域1および対象領域2を設定する。対象領域1は、第2画素列VL1の最下点位置から交点Pまでの長さを高さhとし、第1画素列HL1の長さを幅wとする対象領域として設定される。一方、対象領域2は、交点Pから第2画素列VL1の最も上側に位置する画素の位置までの長さを高さhとし、第1画素列HL1の長さを幅wとする対象領域として設定される。   For example, in the scene example shown in FIG. 13, the intersection space detection function has two sides of the first pixel column HL1 and the second pixel column VL1, and sets the intersection point P between the first pixel column HL1 and the second pixel column VL1 to 1 A target area 1 and a target area 2 which are areas to be used as one corner are set. The target region 1 is set as a target region in which the length from the lowest point position of the second pixel column VL1 to the intersection P is a height h and the length of the first pixel column HL1 is a width w. On the other hand, the target region 2 is a target region in which the length from the intersection P to the position of the pixel located on the uppermost side of the second pixel column VL1 is the height h, and the length of the first pixel column HL1 is the width w. Is set.

また、図13に示す例において、対象領域2は構造物の壁に対応する領域であり、一方、対象領域1は構造物と構造物との間の交差空間に対応する領域である。図13に示すように、構造物に対応する対象領域2は、縦速度情報または横速度情報を有する画素列で3辺を囲まれており、対象領域に対応する画素のうち縦速度情報または横速度情報を有する画素の割合が大きくなる。一方、交差空間に対応する対象領域1は、縦速度情報または横速度情報を有する画素列で2辺だけで囲まれており、対象領域に対応する画素のうち縦速度情報または横速度情報を有する画素の割合が小さくなる。そこで、交差空間検出機能は、対象領域に対応する画素のうち、縦速度情報または横速度情報を有する画素の割合が所定の割合以下であるかを判定することで、設定された対象領域が、壁などの構造物に対応するものであるか、それとも、交差空間に対応するものであるかを判断する。具体的に、交差空間検出機能は、対象領域に対応する画素のうち縦速度情報または横速度情報を有する画素の割合が所定の割合以下である対象領域は、交差空間に対応する対象領域であると判定し、一方、対象領域に対応する画素のうち縦速度情報または横速度情報を有する画素の割合が所定の割合よりも大きい対象領域は、壁などの構造物に対応する対象領域であると判定する。   In the example shown in FIG. 13, the target region 2 is a region corresponding to the wall of the structure, while the target region 1 is a region corresponding to the intersection space between the structure and the structure. As shown in FIG. 13, the target area 2 corresponding to the structure is surrounded on three sides by a pixel row having vertical speed information or horizontal speed information, and the vertical speed information or horizontal speed among the pixels corresponding to the target area. The ratio of pixels having speed information increases. On the other hand, the target area 1 corresponding to the intersection space is surrounded by only two sides with a pixel row having vertical speed information or horizontal speed information, and has vertical speed information or horizontal speed information among the pixels corresponding to the target area. The pixel ratio is reduced. Therefore, the intersection space detection function determines whether the ratio of pixels having vertical speed information or horizontal speed information is equal to or less than a predetermined ratio among the pixels corresponding to the target area. It is determined whether the object corresponds to a structure such as a wall or an intersection space. Specifically, in the intersection space detection function, a target area in which a ratio of pixels having vertical speed information or lateral speed information is equal to or less than a predetermined ratio among pixels corresponding to the target area is a target area corresponding to the cross space. On the other hand, the target area in which the ratio of the pixels having the vertical speed information or the horizontal speed information among the pixels corresponding to the target area is larger than a predetermined ratio is a target area corresponding to a structure such as a wall. judge.

対象領域に対応する画素のうち、縦速度情報または横速度情報を有する画素の割合が所定の割合以下であるかを判定する手法は特に限定されないが、本実施形態において、交差空間検出機能は、対象領域に対応する画素のうち速度情報または横速度情報を有する画素の数である画素数nを検出し、画素数nが、画素数n≦(対象領域の高さh×対象領域の幅w)×所定割合の関係となるか判断することで、対象領域に対応する画素のうち縦速度情報または横速度情報を有する画素の割合が所定の割合以下であるかを判断する。そして、画素数n≦(対象領域の高さh×対象領域の幅w)×所定割合の関係となる場合には、その対象領域は、交差空間に対応する対象領域であると判断する。   A method for determining whether the proportion of pixels having vertical velocity information or lateral velocity information among the pixels corresponding to the target region is not more than a predetermined proportion is not particularly limited, but in the present embodiment, the intersection space detection function is The number of pixels n, which is the number of pixels having speed information or lateral speed information, is detected from among the pixels corresponding to the target region, and the number of pixels n is determined by the number of pixels n ≦ (the height of the target region h × the width w of the target region. ) × predetermined ratio is determined to determine whether the ratio of the pixels having the vertical speed information or the horizontal speed information among the pixels corresponding to the target area is equal to or lower than the predetermined ratio. If the number of pixels n ≦ (height h of the target area × width w of the target area) × predetermined ratio, the target area is determined to be a target area corresponding to the intersection space.

そして、交差空間検出機能は、交差空間に対応する対象領域の位置において、自車両の進行方向の空間と交差する空間があるものとして、交差空間を検出する。そして、交差空間検出機能は、検出された交差空間の幅Wおよび高さHを決定する。以下において、交差空間の幅Wおよび高さHを決定する手法例について説明する。   Then, the intersection space detection function detects the intersection space on the assumption that there is a space that intersects the space in the traveling direction of the host vehicle at the position of the target region corresponding to the intersection space. Then, the intersection space detection function determines the width W and height H of the detected intersection space. Hereinafter, an example of a method for determining the width W and the height H of the intersection space will be described.

まず、交差空間検出機能は、対象領域の幅wに基づいて、交差空間の幅Wを決定する。ここで、交差空間に対応する対象領域の幅wと、交差空間の幅Wとの関係を図14および図15を用いて説明する。図14は、交差空間に対応する対象領域の幅wが、w1の場合において、交差空間に対応する対象領域の幅wと、交差空間の幅Wとの関係を説明するための図である。また、図15は、交差空間に対応する対象領域の幅wが、図14のw1よりも小さいw2の場合において、交差空間に対応する対象領域の幅wと、交差空間の幅Wとの関係を説明するための図である。図14(a)に示すように、対象領域の幅wがw1として検出された場合、図14(b)に示すように、構造物Aと構造物Bとの間の交差空間の幅WはSW1として検出される。一方、図15(a)に示すように、対象領域の幅wがw2として検出されている場合、図15(b)に示すように、構造物Cと構造物Dとの間の交差空間の幅WはSW2として検出される。   First, the intersection space detection function determines the width W of the intersection space based on the width w of the target region. Here, the relationship between the width w of the target region corresponding to the intersection space and the width W of the intersection space will be described with reference to FIGS. 14 and 15. FIG. 14 is a diagram for explaining the relationship between the width w of the target area corresponding to the intersection space and the width W of the intersection space when the width w of the target area corresponding to the intersection space is w1. FIG. 15 shows the relationship between the width w of the target area corresponding to the cross space and the width W of the cross space when the width w of the target area corresponding to the cross space is smaller than w1 in FIG. It is a figure for demonstrating. As shown in FIG. 14 (a), when the width w of the target area is detected as w1, the width W of the intersection space between the structure A and the structure B is as shown in FIG. 14 (b). It is detected as SW1. On the other hand, as shown in FIG. 15 (a), when the width w of the target area is detected as w2, the intersection space between the structure C and the structure D is shown in FIG. 15 (b). The width W is detected as SW2.

このように、図14と図15とを比較すると、図14(a)の対象領域の幅wであるw1は、図15(a)の対象領域の幅wであるw2よりも大きく、図14(b)の交差空間の幅WであるSW1は、図15(b)の交差空間の幅WであるSW2よりも大きい。このように、対象領域の幅wが大きくなるほど、交差空間の幅Wは大きくなる。すなわち、対象領域の幅wと交差空間の幅Wとは相関し、対象領域の幅wの大きさに応じて、交差空間の幅Wを決定することができる。そこで、交差空間検出機能は、対象領域の幅wに基づいて、交差空間の幅Wを決定する。   14 is compared with FIG. 15, the width w1 of the target area in FIG. 14A is larger than w2 which is the width w of the target area in FIG. SW1 which is the width W of the intersection space in FIG. 15B is larger than SW2 which is the width W of the intersection space in FIG. Thus, the width W of the intersection space increases as the width w of the target region increases. That is, the width w of the target area correlates with the width W of the intersecting space, and the width W of the intersecting space can be determined according to the size of the width w of the target area. Therefore, the intersection space detection function determines the width W of the intersection space based on the width w of the target region.

また、交差空間検出機能は、対象領域に接する第2画素列の長さから、交差空間の高さHを決定する。ここで、交差空間の高さHは、交差空間に隣接する構造物の高さを意味する。図16は、対象領域に接する第2画素列と交差空間の高さHとの関係を説明するための図である。図16に示すように、対象領域に接する第2画素列VL2は、該対象領域1に対応する交差空間に隣接する構造物Bの右端から検出されたエッジに基づくものであり、第2画素列VL2の長さは、交差空間が隣接する構造物Bの高さ、すなわち、交差空間の高さHに対応する。そこで、交差空間検出機能は、対象領域1に接する第2画素列VL2の長さから、交差空間の高さHを決定することができる。なお、例えば、図16に示すように、交差空間に接する第2画素列がVL1,VL2のように複数ある場合には、進行方向手前の第2画素列VL1を用いてもよいし、進行方向遠方の第2画素列VL2を用いてもよい。本実施形態では、進行方向遠方の第2画素列VL2を用いて、交差空間の高さHを決定するものとする。   Further, the intersecting space detection function determines the height H of the intersecting space from the length of the second pixel row in contact with the target region. Here, the height H of the intersection space means the height of the structure adjacent to the intersection space. FIG. 16 is a diagram for explaining the relationship between the second pixel column in contact with the target region and the height H of the intersection space. As shown in FIG. 16, the second pixel column VL2 in contact with the target region is based on the edge detected from the right end of the structure B adjacent to the intersection space corresponding to the target region 1, and the second pixel column The length of VL2 corresponds to the height of the structure B adjacent to the intersection space, that is, the height H of the intersection space. Therefore, the intersecting space detection function can determine the height H of the intersecting space from the length of the second pixel row VL2 in contact with the target region 1. For example, as shown in FIG. 16, when there are a plurality of second pixel columns VL1 and VL2 in contact with the intersection space, the second pixel column VL1 before the traveling direction may be used, or the traveling direction A distant second pixel row VL2 may be used. In the present embodiment, it is assumed that the height H of the intersection space is determined using the second pixel column VL2 far in the traveling direction.

このように、交差空間検出機能は、対象領域に基づいて、交差空間を検出し、かつ検出した交差空間の幅Wと高さHとを決定する。例えば、図13に示す例では、交差空間検出機能は、対象領域1の位置において交差空間を検出し、対象領域1の幅wから交差空間の幅Wを決定し、対象領域1に接する第2画素列VL2の長さから交差空間の高さHを決定する。   As described above, the intersection space detection function detects the intersection space based on the target region, and determines the width W and the height H of the detected intersection space. For example, in the example illustrated in FIG. 13, the intersection space detection function detects the intersection space at the position of the target region 1, determines the width W of the intersection space from the width w of the target region 1, and The height H of the intersection space is determined from the length of the pixel column VL2.

次に、飛び出し可能性算出機能について説明する。飛び出し可能性算出機能は、交差空間検出機能により検出された交差空間に基づいて、自車両が走行する走路上に、物体が飛び出す可能性を算出する。   Next, the pop-out possibility calculation function will be described. The pop-out possibility calculation function calculates the possibility that an object will pop out on the runway on which the host vehicle travels based on the cross space detected by the cross space detection function.

飛び出し可能性算出機能は、交差空間検出機能により検出された交差空間の高さHおよび幅Wに基づいて、物体が走路に飛び出す可能性を算出する。例えば、交差空間の幅Wが大きい場合は、高速で走行する自動車などが交差空間から飛び出す可能性が高いため、物体が走路に飛び出す可能性を高く算出する。また、交差空間の高さHが低い場合は、交差空間に隣接する構造物を飛び越えて人や動物などが飛び出してくる可能性が高いため、物体が走路に飛び出す可能性を高く算出する。なお、交差空間の幅Wと、交差空間の高さHとに重み付けを設定してよく、例えば、重み付けを設定した交差空間の幅WをW’と、重み付けを設定した交差空間の高さHをH’とした場合、飛び出し可能性Pを、飛び出し可能性P=W’×H’として算出してよい。   The pop-out possibility calculation function calculates the possibility that an object will jump out on the runway based on the height H and width W of the cross space detected by the cross space detection function. For example, when the width W of the intersection space is large, there is a high possibility that an automobile traveling at a high speed will jump out of the intersection space. In addition, when the height H of the intersection space is low, there is a high possibility that a person or an animal jumps over a structure adjacent to the intersection space, and therefore the possibility that an object will jump out on the runway is calculated. The weighting may be set for the width W of the intersection space and the height H of the intersection space. For example, the width W of the intersection space for which weighting is set is W ′ and the height H of the intersection space for which weighting is set. Is set as H ′, the pop-out possibility P may be calculated as pop-out possibility P = W ′ × H ′.

さらに、飛び出し可能性算出機能は、自車両の車速、ヘッドライトの点灯信号、ワイパーの作動信号などの車両情報に基づいて、物体の飛び出し可能性を算出する。物体の走路への飛び出しに対する対処が困難な状況において、飛び出し可能性を高く算出することで、物体の飛び出し可能性に基づく運転支援を適切に行うことができる。例えば、自車両の車速が高速の場合は、車速が低速の場合と比べて、物体の走路への飛び出しに対応することが困難となるため、飛び出し可能性を高く算出する。また、ヘッドライトが点灯している場合には、夜間などによりユーザの視界が悪いと判断できるため、飛び出し可能性を高く算出する。さらに、ワイパーが作動している場合にも、雨などによりユーザの視界が悪くなると判断できるため、飛び出し可能性を高く算出する。   Furthermore, the pop-out possibility calculation function calculates the pop-out possibility of an object based on vehicle information such as the vehicle speed of the host vehicle, a headlight lighting signal, and a wiper operation signal. In a situation where it is difficult to deal with the jumping out of the object onto the running path, driving assistance based on the possibility of jumping out of the object can be appropriately performed by calculating the jumping out possibility. For example, when the vehicle speed of the host vehicle is high, it is difficult to cope with the object jumping out on the road compared to the case where the vehicle speed is low. Further, when the headlight is turned on, it can be determined that the user's field of view is poor at night or the like, so the possibility of popping out is calculated to be high. Furthermore, even when the wiper is operating, it can be determined that the user's field of view is deteriorated due to rain or the like, and therefore, the possibility of popping out is calculated to be high.

次に、属性情報付加機能について説明する。属性情報付加機能は、境界線検出機能により検出された境界線に、境界線の属性を示す属性情報を付加する。境界線に付加される属性情報としては、例えば、検出したレーンマークの種類(例えば、実線であるか、または破線であるか)や、飛び出し可能性算出機能により算出された飛び出し可能性などが挙げられる。   Next, the attribute information addition function will be described. The attribute information addition function adds attribute information indicating the attribute of the boundary line to the boundary line detected by the boundary line detection function. The attribute information added to the boundary line includes, for example, the type of the detected lane mark (for example, whether it is a solid line or a broken line), the pop-out possibility calculated by the pop-out possibility calculation function, and the like. It is done.

図17および図18は、属性情報付加機能により付加された属性情報を説明するための図であり、ディスプレイ50の画面上に表示される画像の一例である。例えば、属性情報付加機能は、走路と構造物との境界線となる走路境界線に対して、飛び出し可能性の情報を付加する。これにより、ディスプレイ50は、属性情報を付加された境界線の情報に基づいて、図17に示すように、自車両が走行する走路と構造物との間の走路境界線を画面上に表示する。特に、図17に示す場面例では、走路境界線に交差空間における飛び出し可能性が付加されているため、ディスプレイ50の画面上に表示される走路境界線は、交差空間が検出された位置において、飛び出し可能性に応じて、通常の走路境界線の位置よりも車両走路側の位置になるように表示される。これにより、物体が飛び出す可能性が高い位置をユーザに伝達することができる。また、図18は、図17に示す場面例と比べて交差空間における飛び出し可能性が高い場合において、ディスプレイ50の画面上に表示される画像の一例である。例えば、図18に示す場面例では、図17に示す場面例と比べて、交差空間に対応する対象領域の幅wが大きいため、その対象領域に基づく交差空間の幅Wも大きいものと判断され、交差空間における飛び出し可能性は高く算出される。このように、図18に示す場面例では、図17に示す場面例と比べて交差空間における飛び出し可能性が高いため、交差空間の位置において、図17に示す場面例と比べて、走路境界線が車両走路側の位置になるように、走路境界線が表示される。   17 and 18 are diagrams for explaining attribute information added by the attribute information addition function, and are examples of images displayed on the screen of the display 50. FIG. For example, the attribute information addition function adds information on the possibility of jumping out to a road boundary that is a boundary between a road and a structure. Thereby, the display 50 displays on the screen the road boundary line between the road on which the host vehicle travels and the structure, as shown in FIG. 17, based on the information on the boundary line to which the attribute information is added. . In particular, in the example of the scene shown in FIG. 17, since the possibility of jumping in the intersection space is added to the road boundary line, the road boundary line displayed on the screen of the display 50 is at the position where the intersection space is detected. Depending on the possibility of popping out, the position is displayed so that the position is closer to the vehicle track than the position of the normal track boundary. As a result, a position where the object is likely to jump out can be transmitted to the user. FIG. 18 is an example of an image displayed on the screen of the display 50 when the possibility of popping out in the intersection space is higher than in the scene example shown in FIG. For example, in the example of the scene shown in FIG. 18, the width w of the target area corresponding to the intersection space is larger than that in the example of the scene shown in FIG. The possibility of jumping out in the intersection space is calculated highly. As described above, the scene example shown in FIG. 18 has a higher possibility of popping out in the intersection space than the scene example shown in FIG. 17, and therefore, in the position of the intersection space, compared to the scene example shown in FIG. The road boundary line is displayed so that is at the position on the vehicle road side.

出力機能は、飛び出し可能性算出機能により算出された飛び出し可能性に基づいて、車両を制御するための制御信号、運転者に警報するための警報信号、飛び出し可能性が高い位置を表示するための画像信号などの各種信号を生成する。そして、出力機能は、生成された信号を車両コントローラ30、スピーカ40、ディスプレイ50に送信する。   The output function is used to display a control signal for controlling the vehicle, a warning signal for warning the driver, and a position where the possibility of popping out is high, based on the popping possibility calculated by the popping possibility calculation function. Various signals such as image signals are generated. Then, the output function transmits the generated signal to the vehicle controller 30, the speaker 40, and the display 50.

車両コントローラ30は、図示しないステアリング、アクセル、およびブレーキなどの各種装置に接続しており、制御装置20から送信された制御信号に基づいて、これら装置の制御を行うものである。また、車両コントローラ30は、図示しない車速センサ、ヘッドライト、ワイパーと接続しており、車速センサから車速、ヘッドライトからヘッドライトの点灯情報、ワイパーからワイパーの作動情報を取得する。   The vehicle controller 30 is connected to various devices such as a steering, an accelerator, and a brake (not shown), and controls these devices based on a control signal transmitted from the control device 20. The vehicle controller 30 is connected to a vehicle speed sensor, a headlight, and a wiper (not shown), and acquires vehicle speed from the vehicle speed sensor, headlight lighting information from the headlight, and wiper operation information from the wiper.

スピーカ40は、制御装置20から送信された警報信号に基づいて、自車両が走行する走路に、歩行者や車などの飛び出し警報を音声で出力する。また、ディスプレイ50は、制御装置20から送信された画像信号に基づいて、図17または図18に示すように、自車両が走行する走路に歩行者や車などの飛び出す可能性が高い領域の位置を、ディスプレイ50に備える画面上に表示する。   Based on the alarm signal transmitted from the control device 20, the speaker 40 outputs a pop-out alarm of a pedestrian, a car or the like to the runway on which the host vehicle travels. Moreover, the display 50 is based on the image signal transmitted from the control apparatus 20, and as shown in FIG. 17 or FIG. 18, the position of the area | region where possibility that a pedestrian, a vehicle, etc. will jump out on the runway where the own vehicle runs is high. Is displayed on a screen provided in the display 50.

次に、図19および図20に基づき本実施形態に係る走行支援処理について説明する。図19および図20は、本実施形態に係る走行支援処理を示すフローチャートである。以下に説明する走行支援処理は、制御装置20により実行される。   Next, the driving support process according to the present embodiment will be described with reference to FIGS. 19 and 20. 19 and 20 are flowcharts showing the driving support process according to the present embodiment. The driving support process described below is executed by the control device 20.

まず、ステップS1では、本走行支援処理に必要なパラメータの初期設定が行われる。   First, in step S1, parameters necessary for the driving support process are initially set.

次に、ステップS2では、画像取得機能により、カメラ10により撮像された自車両の進行方向前方の画像データが取得される。   Next, in step S2, image data ahead of the traveling direction of the host vehicle captured by the camera 10 is acquired by the image acquisition function.

ステップS3では、エッジ抽出機能により、ステップS2で取得された画像データについて、エッジが抽出される。本実施形態では、Sobelオペレータを用いて、y軸方向に連続するエッジ成分およびx軸方向に連続するエッジ成分が抽出される。   In step S3, an edge is extracted from the image data acquired in step S2 by the edge extraction function. In the present embodiment, an edge component continuous in the y-axis direction and an edge component continuous in the x-axis direction are extracted using the Sobel operator.

次に、ステップS4では、移動情報算出機能により、エッジの速度情報が算出される。なお、ステップS4では、ステップS3で抽出されたy軸方向に連続するエッジ成分を用いて、x軸方向に移動するエッジの移動情報が、ステップS3で抽出されたx軸方向に連続するエッジ成分を用いて、y軸方向に移動するエッジの移動情報が算出される。   In step S4, edge speed information is calculated by the movement information calculation function. In step S4, using the edge component continuous in the y-axis direction extracted in step S3, the movement information of the edge moving in the x-axis direction is converted into the edge component continuous in the x-axis direction extracted in step S3. Is used to calculate the movement information of the edge moving in the y-axis direction.

ステップS5では、移動情報算出機能により、算出されたエッジの移動速度および移動方向に基づいて、図5に示すように、x軸方向に移動したエッジに対応する画素が横速度情報を有する画素として検出され、また図6に示すように、y軸方向に移動したエッジに対応する画素が縦速度情報を有する画素として検出される。   In step S5, based on the movement speed and movement direction of the edge calculated by the movement information calculation function, as shown in FIG. 5, the pixel corresponding to the edge moved in the x-axis direction is a pixel having lateral speed information. Further, as shown in FIG. 6, a pixel corresponding to an edge moved in the y-axis direction is detected as a pixel having longitudinal speed information.

次に、ステップS6では、最下点位置検出機能により、最下点位置が検出される。すなわち、画像データを複数の短冊状の領域に分割し、各領域において、ステップS5で算出された横速度情報を有する複数の画素が連続してなる画素列を検出する。そして、画素列を構成する各画素のうち、y軸方向において最も下側に位置する画素の位置を最下点位置として検出する。例えば、図7に示す場面例において、BP1−1〜BP12−2が最下点位置として算出される。検出された最下点位置は、制御装置20のRAMに記憶される。   Next, in step S6, the lowest point position is detected by the lowest point position detection function. That is, the image data is divided into a plurality of strip-shaped regions, and a pixel row in which a plurality of pixels having the lateral velocity information calculated in step S5 is continuously detected in each region. Then, the position of the pixel located on the lowermost side in the y-axis direction among the pixels constituting the pixel column is detected as the lowest point position. For example, in the scene example shown in FIG. 7, BP1-1 to BP12-2 are calculated as the lowest point positions. The detected lowest point position is stored in the RAM of the control device 20.

ステップS7では、境界線検出機能により、カメラ座標系のxy平面上において抽出された最下点位置の位置座標を、車両座標系のZX平面上の点として3次元の位置座標に変換する。例えば、図7に示す最下点位置BP1−1〜BP12−2は、図8に示す3次元座標値RB1−1〜RB12−2に変換される。   In step S7, the position coordinate of the lowest point position extracted on the xy plane of the camera coordinate system is converted into a three-dimensional position coordinate as a point on the ZX plane of the vehicle coordinate system by the boundary line detection function. For example, the lowest point positions BP1-1 to BP12-2 shown in FIG. 7 are converted into the three-dimensional coordinate values RB1-1 to RB12-2 shown in FIG.

ステップS8では、ステップS7で変換された3次元座標が、同じX軸領域であり、複数のZ軸領域に存在する境界線領域が存在するか判断される。境界線領域が存在する場合にはステップS9に進み、一方、境界線領域が存在しない場合には、ステップS13へ進む。   In step S8, it is determined whether the three-dimensional coordinates converted in step S7 are the same X-axis region and there are boundary line regions existing in a plurality of Z-axis regions. If the boundary line area exists, the process proceeds to step S9. On the other hand, if the boundary line area does not exist, the process proceeds to step S13.

ステップS9では、境界線領域に存在する最下点位置を直線近似により結び、検出した直線を境界線として検出する。例えば、図8に示す3次元座標値RB1−1〜RB12−2から、図9に示す境界線L1、L2、L3、L4、L5、L6、L7が検出される。   In step S9, the lowest point position existing in the boundary line region is connected by linear approximation, and the detected straight line is detected as the boundary line. For example, the boundary lines L1, L2, L3, L4, L5, L6, and L7 shown in FIG. 9 are detected from the three-dimensional coordinate values RB1-1 to RB12-2 shown in FIG.

次に、ステップS10では、全ての境界線領域について、ステップS9の境界線検出処理が行われたか判断される。全ての境界線領域について境界線検出処理が行われた場合には、ステップS11に進み、一方、全ての境界線領域について境界線検出処理が行われていない場合には、ステップS9へ戻り、境界線検出処理が行われていない境界線領域について、境界線が検出される。   Next, in step S10, it is determined whether the boundary line detection process in step S9 has been performed for all boundary line regions. If boundary detection processing has been performed for all boundary regions, the process proceeds to step S11. On the other hand, if boundary detection processing has not been performed for all boundary regions, the process returns to step S9 and the boundary is detected. A boundary line is detected for a boundary region that has not been subjected to line detection processing.

ステップS11では、境界線検出機能により、検出された境界線が、レーンマークに基づくものであるか、あるいは走路と構造物との走路境界線に基づくものであるか判定される。例えば、図9および図10に示す場面例においては、自車両の走行する走路の中心位置よりも左側の領域において、走路の中心位置から1番目に近い境界線L2と2番目に近い境界線L3はレーンマークLL1として検出され、一方、走路の中心位置から3番目に近い境界線L1は、構造物と走路との境界を示す走路境界線LB1として検出される。また、自車両が走行する走路の中心位置よりも右側の領域において、走路の中心位置から1番目に近い境界線L4と2番目に近い境界線L5はレーンマークRL1、および走路の中心位置から3番目に近い境界線L6と4番目に近い境界線L7はレーンマークRL2として検出される。   In step S11, it is determined by the boundary line detection function whether the detected boundary line is based on the lane mark or based on the road boundary line between the road and the structure. For example, in the scene example shown in FIG. 9 and FIG. 10, in the region on the left side of the center position of the travel path on which the host vehicle travels, the boundary line L2 that is the first closest to the center position of the travel path and the boundary line L3 that is the second closest to the center position Is detected as a lane mark LL1, while a boundary line L1 that is the third closest to the center position of the road is detected as a road boundary LB1 indicating the boundary between the structure and the road. Further, in the region on the right side of the center position of the runway on which the host vehicle travels, the boundary line L4 that is the first closest to the center position of the runway and the boundary line L5 that is the second closest to the center position are 3 from the lane mark RL1 The fourth closest boundary line L6 and the fourth closest boundary line L7 are detected as the lane mark RL2.

次にステップS12では、ステップS11で全ての境界線について、境界線がレーンマークであるか走路境界線であるかの判断がされたか判定される。全ての境界線について、レーンマークであるか走路境界線であるかの判断がされた場合は、図20のステップS14に進む。一方、全ての境界線について、レーンマークであるか走路境界線であるかの判断がされていない場合は、判断がされていない境界線について、ステップS11の処理が行われる。   Next, in step S12, it is determined whether or not it is determined in step S11 whether the boundary line is a lane mark or a road boundary line. When it is determined whether all the boundary lines are lane marks or road boundary lines, the process proceeds to step S14 in FIG. On the other hand, if it is not determined whether the boundary line is a lane mark or a road boundary line for all the boundary lines, the process of step S11 is performed for the boundary lines that are not determined.

ステップS8で、境界線を検出することができない場合は、ステップS13に進む。ステップS13では、画像データ内に境界線はないものと判断され、図20のステップS19へ進む。   If the boundary line cannot be detected in step S8, the process proceeds to step S13. In step S13, it is determined that there is no boundary line in the image data, and the process proceeds to step S19 in FIG.

次に、図20に示す走行支援処理について説明する。   Next, the driving support process shown in FIG. 20 will be described.

まず、ステップS14では、交差空間検出処理により、ステップS6で検出された最下点位置に基づいて、自車両の進行方向と交差する空間である交差空間が検出される。図21および図22は、ステップS14の交差空間検出処理を示すフローチャートである。以下において、図21および図22を参照して、交差空間検出処理について説明する。   First, in step S14, an intersection space that is a space that intersects the traveling direction of the host vehicle is detected by the intersection space detection process based on the lowest point position detected in step S6. 21 and 22 are flowcharts showing the intersection space detection process of step S14. Hereinafter, the intersection space detection process will be described with reference to FIGS. 21 and 22.

まず、ステップS1401において、交差空間を検出するための処理領域が設定される。具体的には、自車両の走行する走路の中心位置から見て、ステップS11で検出されたレーンマーク(複数のレーンマークが検出されている場合には、走路中央位置から最も外側に位置するレーンマーク)よりも外側の領域が処理領域として設定される。例えば、図10に示す場面例では、自車両の左側の領域については、ステップS11で検出したレーンマークLL1よりも左側の領域が処理領域として設定され、また自車両の右側の領域については、ステップS11で検出された自車両右側の2つのレーンマークRL1、RL2のうち、自車両から遠い位置にあるレーンマークRL2よりも右側の領域が処理領域として設定される。   First, in step S1401, a processing area for detecting an intersection space is set. Specifically, the lane mark detected in step S11 as viewed from the center position of the road on which the host vehicle travels (the lane located on the outermost side from the road center position when a plurality of lane marks are detected). An area outside the mark) is set as a processing area. For example, in the example of the scene shown in FIG. 10, for the left region of the host vehicle, the region on the left side of the lane mark LL1 detected in step S11 is set as the processing region. Of the two lane marks RL1 and RL2 on the right side of the host vehicle detected in S11, a region on the right side of the lane mark RL2 located far from the host vehicle is set as a processing region.

次にステップS1402では、ステップS1401で設定された処理領域中において、横速度情報を有する画素が、最下点位置からy軸方向に沿って連続した第2画素列と、縦速度情報を有する画素が、x軸方向に沿って連続した第1画素列とが検出される。例えば、図11に示す場面例では、第1画素列HL1と第1画素列HL2が検出される。また、図12に場面例では、最下点位置BP1から横速度情報を有する複数の画素が連続した第2画素列VL1が検出され、同様に、最下点位置BP2から横速度情報を有する複数の画素が連続した第2画素列VL2が検出される。   Next, in step S1402, in the processing region set in step S1401, the pixels having the lateral velocity information are the second pixel row that is continuous along the y-axis direction from the lowest point position, and the pixels having the longitudinal velocity information. However, the first pixel row that is continuous along the x-axis direction is detected. For example, in the scene example shown in FIG. 11, the first pixel column HL1 and the first pixel column HL2 are detected. Further, in the example of the scene in FIG. 12, the second pixel row VL1 in which a plurality of pixels having the lateral velocity information is continuously detected from the lowest point position BP1, and similarly, a plurality of pixels having the lateral velocity information from the lowest point position BP2 is detected. The second pixel row VL2 in which the pixels are continuous is detected.

ステップS1403では、第1画素列および第2画素列を検出できたか判断される。第1画素列または第2画素列を検出できない場合には、ステップS1409に進み、交差空間は存在しないものと判断して、ステップS14の交差空間検出処理を終了する。一方、第1画素列および第2画素列を検出できた場合は、ステップS1404へ進む。   In step S1403, it is determined whether the first pixel column and the second pixel column have been detected. If the first pixel column or the second pixel column cannot be detected, the process advances to step S1409 to determine that no intersection space exists, and the intersection space detection process in step S14 ends. On the other hand, if the first pixel column and the second pixel column can be detected, the process proceeds to step S1404.

ステップS1404では、x軸方向に沿って連続する第1画素列の長さ、およびy軸方向に沿って連続する第2画素列の長さが算出される。   In step S1404, the length of the first pixel column that is continuous along the x-axis direction and the length of the second pixel column that is continuous along the y-axis direction are calculated.

続くステップS1405では、ステップS1404で求めた第1画素列が、誤検出されたエッジ成分に基づくノイズであるか判断するため、第1画素列の長さが所定値TW0、例えば車両座標系で0.3m以上であるか判断される。ここで、カメラ10により撮像された構造物や構造物以外の背景により、1つの画像データ内に複数の第1画素列が検出される場合がある。そのため、ステップS1405では、1つの画像データ内に複数の第1画素列が存在する場合には、それぞれの第1画素列の長さが所定値TWO以上であるか判断される。   In subsequent step S1405, in order to determine whether or not the first pixel column obtained in step S1404 is noise based on an erroneously detected edge component, the length of the first pixel column is a predetermined value TW0, for example, 0 in the vehicle coordinate system. It is judged whether it is more than 3m. Here, a plurality of first pixel columns may be detected in one image data due to a structure imaged by the camera 10 or a background other than the structure. Therefore, in step S1405, when there are a plurality of first pixel columns in one image data, it is determined whether the length of each first pixel column is equal to or greater than a predetermined value TWO.

そして、長さが所定値TW0以上となる第1画素列がある場合は、ステップS1406に進み、一方、長さが所定値TW0以上となる第1画素列がない場合には、検出された第1画素列は誤検出されたエッジ成分に基づくノイズであると判断され、ステップS1409に進み、画像データ内に交差空間はないものと判断し、ステップS14の交差空間検出処理を終了する。   If there is a first pixel column whose length is equal to or greater than the predetermined value TW0, the process proceeds to step S1406. On the other hand, if there is no first pixel column whose length is equal to or greater than the predetermined value TW0, the detected first pixel column is detected. One pixel column is determined to be noise based on the erroneously detected edge component, and the process proceeds to step S1409, where it is determined that there is no cross space in the image data, and the cross space detection process in step S14 is terminated.

ステップS1406では、第2画素列が誤検出されたエッジ成分に基づくノイズであるかを判断するため、第2画素列の長さが所定値TH0、例えば、車両座標系で0.15m以上であるか判断される。なお、ステップS1406においても、ステップS1405と同様に、1つの画像データ内に複数の第2画素列が存在する場合には、それぞれの第2画素列の長さについて所定値THO以上であるか判断される。   In step S1406, the length of the second pixel column is a predetermined value TH0, for example, 0.15 m or more in the vehicle coordinate system, in order to determine whether the second pixel column is noise based on an erroneously detected edge component. Is judged. In step S1406, as in step S1405, if there are a plurality of second pixel columns in one image data, it is determined whether the length of each second pixel column is equal to or greater than a predetermined value THO. Is done.

そして、長さが所定値TH0以上となる第2画素列がある場合は、ステップS1407に進み、一方、長さが所定値TH0以上となる第2画素列がない場合には、検出された第2画素列は誤検出されたエッジ成分に基づくノイズであると判断され、ステップS1409に進み、画像データ内に交差空間はないものと判断し、ステップS14の交差空間検出処理を終了する。   If there is a second pixel column whose length is equal to or greater than the predetermined value TH0, the process proceeds to step S1407. On the other hand, if there is no second pixel column whose length is equal to or greater than the predetermined value TH0, the detected second pixel column is detected. The two pixel columns are determined to be noise based on the erroneously detected edge component, and the process proceeds to step S1409, where it is determined that there is no intersection space in the image data, and the intersection space detection process in step S14 is terminated.

次に、ステップS1407では、互いに交わる第1画素列および第2画素列を2辺とし、第1画素列と第2画素列との交点を1の角とする矩形状の領域を対象領域として設定する。例えば、図13に示すように、第1画素列HL1と第2画素列VL1とを2辺とし、第1画素列HL1と第2画素列VL1との交点Pを1つの角とする対象領域1と、同様に、第1画素列HL1と第2画素列VL1とを2辺とし、第1画素列HL1と第2画素列VL1との交点Pを1つの角とする対象領域2とが設定される。   Next, in step S1407, a rectangular region having the first pixel column and the second pixel column intersecting each other as two sides and the intersection of the first pixel column and the second pixel column as one corner is set as a target region. To do. For example, as shown in FIG. 13, the target region 1 having the first pixel column HL1 and the second pixel column VL1 as two sides and the intersection P between the first pixel column HL1 and the second pixel column VL1 as one corner. Similarly, the target region 2 is set with the first pixel column HL1 and the second pixel column VL1 as two sides and the intersection P between the first pixel column HL1 and the second pixel column VL1 as one corner. The

ステップS1408では、ステップS1407において、対象領域が設定されたか判断される。対象領域が設定された場合は、ステップS1410に進む。一方、対象領域が1つも設定されなかった場合は、ステップS1409に進み、画像データ内に交差空間はないものと判断し、ステップS14の交差空間検出処理を終了する。   In step S1408, it is determined whether the target area is set in step S1407. If the target area is set, the process proceeds to step S1410. On the other hand, if no target area has been set, the process advances to step S1409 to determine that there is no cross space in the image data, and the cross space detection process in step S14 ends.

次に、ステップS1410では、ステップS1407で設定された対象領域に対応する画素のうち、縦速度情報または横速度情報を有する画素の画素数nが検出される。   Next, in step S1410, the number n of pixels having vertical speed information or horizontal speed information among the pixels corresponding to the target region set in step S1407 is detected.

そして、ステップS1411では、対象領域に対応する画素のうち、ステップS1410で検出された縦速度情報または横速度情報を有する画素の割合が、所定の割合以下であるか判断される。本実施形態では、縦速度情報または横速度情報を有する画素の画素数nが、画素数n≦(対象領域の高さh×対象領域の幅w)×所定割合の関係となるか判断することで、対象領域に対応する画素のうち縦速度情報または横速度情報を有する画素の割合が所定割合以下となるか判断する。対象領域に対応する画素のうち縦速度情報または横速度情報を有する画素の割合が所定割合以下となる場合は、ステップS1412に進み、検出した対象領域は交差空間に対応するものであると判断される。一方、対象領域に対応する画素のうち縦速度情報または横速度情報を有する画素の割合が所定の割合よりも大きい場合には、対象領域は壁などの構造物に対応するものと判断され、ステップS1424へ進む。   In step S1411, it is determined whether the ratio of the pixels having the vertical speed information or the horizontal speed information detected in step S1410 among the pixels corresponding to the target region is equal to or less than a predetermined ratio. In the present embodiment, it is determined whether the number n of pixels having the vertical speed information or the horizontal speed information has a relationship of the number of pixels n ≦ (the height of the target area h × the width w of the target area) × a predetermined ratio. Thus, it is determined whether or not the ratio of the pixels having the vertical speed information or the horizontal speed information among the pixels corresponding to the target region is equal to or less than a predetermined ratio. When the ratio of the pixels having the vertical speed information or the horizontal speed information among the pixels corresponding to the target area is equal to or less than the predetermined ratio, the process proceeds to step S1412 and it is determined that the detected target area corresponds to the intersection space. The On the other hand, if the proportion of pixels having vertical velocity information or lateral velocity information among the pixels corresponding to the target region is larger than a predetermined proportion, it is determined that the target region corresponds to a structure such as a wall, and step The process proceeds to S1424.

ステップS1413以降では、交差空間に対応する対象領域の幅wに基づいて、交差空間の幅Wが求められ(ステップS1413〜ステップS1417)、また交差空間に対応する対象領域に接する第2画素列の長さに基づいて、交差空間の高さHが求められる(ステップS1418〜ステップS1422)。なお、本実施形態では、交差空間の幅Wは、『大』、『中』、『小』の3つのパラメータで決定され、交差空間の高さHは、『高』、『中』、『低』の3つのパラメータで決定される。また、本実施形態では、図16に示すように、交差空間に対応する対象領域に接する第2画素列が複数ある場合は、進行方向遠方の第2画素列の長さに基づいて、交差空間の高さを決定する。   In step S1413 and subsequent steps, the width W of the intersection space is obtained based on the width w of the target region corresponding to the intersection space (steps S1413 to S1417), and the second pixel column in contact with the target region corresponding to the intersection space is determined. Based on the length, the height H of the intersection space is obtained (steps S1418 to S1422). In this embodiment, the width W of the intersection space is determined by three parameters of “large”, “medium”, and “small”, and the height H of the intersection space is “high”, “medium”, “ It is determined by three parameters “low”. In this embodiment, as shown in FIG. 16, when there are a plurality of second pixel columns in contact with the target region corresponding to the intersection space, the intersection space is determined based on the length of the second pixel column far from the traveling direction. Determine the height.

まず、ステップS1413では、対象領域の幅wが、所定値TW1、例えば車両座標系で1m以上であるか判断される。対象領域の幅wが、所定値TW1未満の場合はステップS1414に進み、一方、対象領域の幅wが、所定値TW1以上の場合にはステップS1415へ進む。   First, in step S1413, it is determined whether the width w of the target area is a predetermined value TW1, for example, 1 m or more in the vehicle coordinate system. If the width w of the target area is less than the predetermined value TW1, the process proceeds to step S1414. If the width w of the target area is equal to or greater than the predetermined value TW1, the process proceeds to step S1415.

ステップS1414では、対象領域の幅wが、所定値TW1未満であると判定されているため、交差空間の幅Wが『小』に設定される。ステップS1414で、交差空間の幅Wを『小』に設定した後は、ステップS1418に進む。   In step S1414, since it is determined that the width w of the target area is less than the predetermined value TW1, the width W of the intersection space is set to “small”. After the width W of the intersection space is set to “small” in step S1414, the process proceeds to step S1418.

一方、ステップS1413で、対象領域の幅wが、所定値TW1以上と判定された場合にはステップS1415に進み、対象領域の幅wが、所定値TW2、例えば車両座標系で3m以上であるか判断される。対象領域の幅wが所定値TW2未満の場合には、ステップS1416に進み、一方、対象領域の幅wが所定値TW2以上の場合にはステップS1417へ進む。   On the other hand, if it is determined in step S1413 that the width w of the target area is equal to or greater than the predetermined value TW1, the process proceeds to step S1415, and whether the width w of the target area is equal to or greater than the predetermined value TW2, for example, 3 m in the vehicle coordinate system. To be judged. If the width w of the target area is less than the predetermined value TW2, the process proceeds to step S1416. If the width w of the target area is greater than or equal to the predetermined value TW2, the process proceeds to step S1417.

ステップS1416では、対象領域の幅wが、所定値TW1以上であり、かつ所定値TW2未満であると判定されているため、交差空間の幅Wが『中』に設定される。ステップS1416で、交差空間の幅Wが『中』に設定された後は、ステップS1418に進む。   In step S1416, since it is determined that the width w of the target area is equal to or larger than the predetermined value TW1 and smaller than the predetermined value TW2, the width W of the intersection space is set to “medium”. After the width W of the intersection space is set to “medium” in step S1416, the process proceeds to step S1418.

一方、ステップS1415で、対象領域の幅wが、所定値TW2以上と判定された場合には、ステップS1417に進み、交差空間の幅Wが『大』に設定される。ステップS1417で、交差空間の幅Wが『大』に設定された後は、ステップS1418に進む。   On the other hand, if it is determined in step S1415 that the width w of the target area is equal to or greater than the predetermined value TW2, the process proceeds to step S1417, and the width W of the intersection space is set to “large”. After the width W of the intersection space is set to “large” in step S1417, the process proceeds to step S1418.

次に、ステップS1418〜ステップS1422では、対象領域に接する第2画素列の長さに基づいて、交差空間の幅Hが『高』、『中』、『低』の幅パラメータで求められる。   Next, in step S1418 to step S1422, the width H of the intersection space is obtained with the width parameters of “high”, “medium”, and “low” based on the length of the second pixel column in contact with the target region.

まず、ステップS1418では、対象領域に接する第2画素列の長さが、所定値TH1、例えば車両座標系で0.5m以上であるか判断される。対象領域に接する第2画素列の長さが所定値TH1未満の場合は次のステップS1419に進み、一方、対象領域に接する第2画素列の長さが所定値TH1以上の場合にはステップS1420へ進む。   First, in step S1418, it is determined whether the length of the second pixel row in contact with the target region is a predetermined value TH1, for example, 0.5 m or more in the vehicle coordinate system. If the length of the second pixel column in contact with the target region is less than the predetermined value TH1, the process proceeds to the next step S1419. On the other hand, if the length of the second pixel column in contact with the target region is equal to or greater than the predetermined value TH1, step S1420 is performed. Proceed to

ステップS1419では、対象領域に接する第2画素列の長さが所定値TH1未満であると判定されているため、交差空間の高さHが『低』に設定される。ステップS1419で、交差空間の高さHが『低』に設定された後は、ステップS1423に進む。   In step S1419, since it is determined that the length of the second pixel row in contact with the target region is less than the predetermined value TH1, the height H of the intersection space is set to “low”. After the height H of the intersection space is set to “low” in step S1419, the process proceeds to step S1423.

一方、ステップS1418で、対象領域に接する第2画素列の長さが所定値TH1以上と判断された場合は、ステップS1420に進み、対象領域に接する第2画素列の長さが所定値TH2、例えば車両座標系で1.5m以上であるか判断される。対象領域に接する第2画素列の長さが所定値TH2未満の場合には、ステップS1421に進み、一方、対象領域に接する第2画素列の長さが所定値TH2以上の場合にはステップS1422へ進む。   On the other hand, if it is determined in step S1418 that the length of the second pixel column in contact with the target region is equal to or greater than the predetermined value TH1, the process proceeds to step S1420, and the length of the second pixel column in contact with the target region is the predetermined value TH2. For example, it is determined whether it is 1.5 m or more in the vehicle coordinate system. If the length of the second pixel column in contact with the target region is less than the predetermined value TH2, the process proceeds to step S1421, while if the length of the second pixel column in contact with the target region is equal to or greater than the predetermined value TH2, step S1422 is performed. Proceed to

ステップS1421では、対象領域に接する第2画素列の長さが所定値TH1以上であり、かつ所定値TH2未満であると判定されているため、交差空間の高さHが『中』に設定される。ステップS1421で、交差空間の高さHが『中』に設定された後は、ステップS1423に進む。   In step S1421, since it is determined that the length of the second pixel row in contact with the target region is equal to or greater than the predetermined value TH1 and less than the predetermined value TH2, the height H of the intersection space is set to “medium”. The After the height H of the intersection space is set to “medium” in step S1421, the process proceeds to step S1423.

一方、ステップS1420で、対象領域に接する第2画素列の長さが所定値TH2以上と判断された場合には、ステップS1422に進み、交差空間の高さHが『高』に設定される。ステップS1422で、交差空間の高さHが『高』に設定された後は、ステップS1423に進む。   On the other hand, if it is determined in step S1420 that the length of the second pixel row in contact with the target region is equal to or greater than the predetermined value TH2, the process proceeds to step S1422, and the height H of the intersection space is set to “high”. After the height H of the intersection space is set to “high” in step S1422, the process proceeds to step S1423.

ステップS1423では、対象領域に対応する全ての交差空間について幅Wおよび高さHが設定されたか判断される。全ての交差空間について幅Wおよび高さHが設定された場合は、ステップS14の交差空間処理を終了する。一方、全ての交差空間について幅Wおよび高さHが設定されていない場合は、ステップS1410に戻り、幅Wおよび高さHが設定されていない交差空間について、幅Wおよび高さHが設定される。   In step S1423, it is determined whether the width W and the height H are set for all the intersection spaces corresponding to the target region. When the width W and the height H are set for all the intersection spaces, the intersection space processing in step S14 is terminated. On the other hand, if the width W and the height H are not set for all the intersection spaces, the process returns to step S1410, and the width W and the height H are set for the intersection spaces where the width W and the height H are not set. The

なお、ステップS1411で、対象領域に対応する画素のうち縦速度情報または横速度情報を有する画素の割合が所定割合よりも大きい場合には、ステップS1424に進む。ステップS1424では、第1画素列および第2画素列で構成される対象領域は、交差空間に対応するものではないと判断され、ステップS1423に進む。   If it is determined in step S1411 that the proportion of pixels having vertical velocity information or horizontal velocity information among the pixels corresponding to the target region is greater than a predetermined proportion, the process proceeds to step S1424. In step S1424, it is determined that the target region configured by the first pixel column and the second pixel column does not correspond to the intersection space, and the process proceeds to step S1423.

続いて、図20に示すステップS15では、交差空間が検出されたか判断される。交差空間が検出されている場合は、ステップS16に進み、一方、交差空間が存在しないと判断された場合には、ステップS18に進む。   Subsequently, in step S15 shown in FIG. 20, it is determined whether an intersection space is detected. If an intersection space is detected, the process proceeds to step S16, whereas if it is determined that no intersection space exists, the process proceeds to step S18.

ステップS16では、飛び出し可能性算出機能により、自車両が走行する走路に、物体が飛び出す可能性が算出される。以下において、図23を参照して、飛び出し可能性算出処理について説明する。図23は、飛び出し可能性算出処理を示すフローチャートである。   In step S <b> 16, the possibility of an object jumping out on the road on which the host vehicle travels is calculated by the pop-out possibility calculation function. In the following, the pop-out possibility calculation process will be described with reference to FIG. FIG. 23 is a flowchart showing pop-out possibility calculation processing.

まず、ステップS1601では、ステップS14の交差空間検出処理で検出された交差空間の幅Wおよび高さHが取得される。   First, in step S1601, the width W and height H of the intersection space detected by the intersection space detection process in step S14 are acquired.

次にステップS1602では、取得された交差空間の幅Wおよび高さHを用いて自車両が走行する走路に、物体が飛び出す可能性Pが算出される。本実施形態では、以下に説明するように、交差空間の幅Wと交差空間の高さHとをポイント化し、ポイント化した交差空間の幅Wと交差空間の高さHとに基づいて、飛び出し可能性Pを算出する。   Next, in step S1602, the possibility P of the object jumping out on the running path on which the host vehicle travels is calculated using the acquired width W and height H of the intersection space. In the present embodiment, as described below, the intersection space width W and the intersection space height H are pointed, and based on the pointed intersection space width W and intersection space height H, popping out The possibility P is calculated.

例えば、ステップS14の交差空間検出処理では、交差空間の幅Wには『大』、『中』、『小』のいずれかが設定されている。交差空間の幅が広いほど、自動車などの高速に移動する物体が走路に飛び出す可能性が高いものと想定される。そこで、本実施形態では、交差空間の幅Wが『大』であれば3ポイント、交差空間の幅Wが『中』であれば2ポイント、また交差空間の幅Wが『小』であれば1ポイントと、飛び出し可能性に応じて、交差空間の幅Wをポイント化する。   For example, in the intersection space detection process in step S14, the intersection space width W is set to “large”, “medium”, or “small”. It is assumed that the wider the intersection space, the higher the possibility that an object that moves at high speed, such as an automobile, will jump out onto the runway. Therefore, in this embodiment, if the width W of the intersection space is “large”, 3 points, 2 points if the width W of the intersection space is “medium”, and if the width W of the intersection space is “small”. The width W of the intersection space is made into a point according to one point and the possibility of popping out.

また同様に、ステップS14の交差空間検出処理において、交差空間の高さHには『高』、『中』、『低』のいずれかが設定されている。交差空間の高さは、交差空間に隣接する構造物の高さと推定され、交差空間の高さが低いほど、交差空間と隣接する構造物を越えて、物体が飛び出してくる可能性が高いと想定される。そこで、本実施形態では、交差空間の高さHが『高』であれば1ポイント、交差空間の高さHが『中』であれば2ポイント、交差空間の高さHが『低』であれば3ポイントと、飛び出し可能性に応じて、交差空間の高さHをポイント化する。   Similarly, in the intersection space detection process in step S14, the height H of the intersection space is set to “high”, “medium”, or “low”. The height of the intersection space is estimated to be the height of the structure adjacent to the intersection space, and the lower the height of the intersection space, the more likely the object will jump out of the structure adjacent to the intersection space. is assumed. Therefore, in this embodiment, if the height H of the intersection space is “high”, it is 1 point, if the height H of the intersection space is “medium”, it is 2 points, and the height H of the intersection space is “low”. If there is 3 points, the height H of the intersection space is made into a point according to the possibility of popping out.

そして、ポイント化した交差空間の幅Wと交差空間の高さHとに基づいて、飛び出し可能性Pを算出する。例えば、飛び出し可能性P=交差空間の高さHのポイント×交差空間の幅Wのポイントとして算出することができる。交差空間の幅Wが『大』であり、交差空間の高さHが『低』の場合、幅Wは3ポイントであり、高さHも3ポイントとなるため、飛び出し可能性Pは9ポイントとして算出される。一方、交差空間の幅Wが『小』であり、交差空間の高さHが『高』の場合、幅Wは1ポイントであり、高さHも1ポイントとなるため、飛び出し可能性Pは1ポイントとして算出される。なお、飛び出し可能性Pを算出する際に、交差空間の幅Wまたは交差空間の高さHのポイントに重み付けをしてもよい。   Then, the pop-out possibility P is calculated based on the width W of the intersection space and the height H of the intersection space. For example, it can be calculated as pop-out possibility P = point of height H of intersection space × point of width W of intersection space. If the width W of the intersection space is “Large” and the height H of the intersection space is “Low”, the width W is 3 points and the height H is also 3 points. Is calculated as On the other hand, when the width W of the intersection space is “small” and the height H of the intersection space is “high”, the width W is 1 point and the height H is also 1 point. Calculated as 1 point. In calculating the pop-out possibility P, the points of the width W of the intersection space or the height H of the intersection space may be weighted.

次にステップS1603では、車両コントローラ30から車両情報が取得される。本実施形態では、例えば、車速、ヘッドライトの点灯信号、またはワイパーの作動信号が取得される。   Next, in step S1603, vehicle information is acquired from the vehicle controller 30. In the present embodiment, for example, a vehicle speed, a headlight lighting signal, or a wiper operation signal is acquired.

そして、ステップS1604では、取得された車速が所定値TV0、例えば、40Km/h以上であるか判断される。車速が所定値TVO以上であれば、ステップS1605に進み、一方、車速が所定値TV0未満であればステップS1606へ進む。   In step S1604, it is determined whether the acquired vehicle speed is a predetermined value TV0, for example, 40 Km / h or more. If the vehicle speed is equal to or higher than the predetermined value TVO, the process proceeds to step S1605. If the vehicle speed is less than the predetermined value TV0, the process proceeds to step S1606.

ステップS1605では、ステップS1604により車速が所定値TVO以上であると判断されているため、ステップS1602で算出された飛び出し可能性Pを1段階上げる補正を行う。なお、飛び出し可能性を上げる方法として、ステップS1602で算出された飛び出し可能性に所定のポイント数を追加してもよいし、またステップS1602で算出された飛び出し可能性に所定のポイント数を乗じてもよい。   In step S1605, since it is determined in step S1604 that the vehicle speed is equal to or higher than the predetermined value TVO, the pop-out possibility P calculated in step S1602 is corrected by one step. As a method for increasing the popping possibility, a predetermined number of points may be added to the popping possibility calculated in step S1602, or the popping possibility calculated in step S1602 is multiplied by a predetermined number of points. Also good.

次に、ステップS1606では、ステップS1603で取得されたヘッドライトの点灯信号に基づいて、ヘッドライトが点灯しているか、それともヘッドライトが消灯しているか判断される。ヘッドライトが点灯している場合には、ステップS1607に進み、ヘッドライトが消灯している場合にはステップS1608に進む。   Next, in step S1606, based on the headlight lighting signal acquired in step S1603, it is determined whether the headlight is on or the headlight is off. If the headlight is on, the process proceeds to step S1607. If the headlight is off, the process proceeds to step S1608.

ステップS1607では、ステップS1606によりヘッドライトが点灯していると判断されているため、自車両の周囲が暗い状態であると判断し、ステップS1602で算出された飛び出し可能性に対して、飛び出し可能性を1段階上げる補正を行う。なお、飛び出し可能性を上げる方法は、ステップS1605と同様に行えばよい。   In step S1607, since it is determined that the headlight is turned on in step S1606, it is determined that the surroundings of the host vehicle are in a dark state, and the possibility of popping out is compared to the popping possibility calculated in step S1602. Is corrected by one step. Note that the method for increasing the possibility of popping out may be performed in the same manner as in step S1605.

そして、ステップS1608では、ステップS1603で取得されたワイパーの作動信号に基づいて、ワイパーが動作しているか否かが判断される。ワイパーが動作している場合には、ステップS1609に進み、一方、ワイパーが動作していない場合には、ステップS16の飛び出し可能性算出処理を終了する。   In step S1608, it is determined whether the wiper is operating based on the wiper operation signal acquired in step S1603. If the wiper is operating, the process proceeds to step S1609. On the other hand, if the wiper is not operating, the popping possibility calculating process in step S16 is terminated.

次に、ステップS1609では、ステップS1608でワイパーが動作していると判断されているため、自車両の走行環境が雨などであると判定し、ステップS1602で算出された飛び出し可能性に対して、飛び出し可能性を1段階上げる補正を行う。なお、飛び出し可能性を上げる方法は、ステップS1605と同様に行えばよい。   Next, in step S1609, since it is determined that the wiper is operating in step S1608, it is determined that the traveling environment of the host vehicle is rain, and the possibility of popping out calculated in step S1602 is determined. Correction is performed to increase the pop-out possibility by one step. Note that the method for increasing the possibility of popping out may be performed in the same manner as in step S1605.

ステップS1609が終了した後は、ステップS16の飛び出し可能性算出処理を終了する。   After step S1609 ends, the pop-out possibility calculation process in step S16 ends.

次に、ステップS17では、検出された全ての交差空間について、ステップS16の飛び出し可能性算出処理が行われたか判断される。全ての交差空間に対して、飛び出し可能性算出処理が行われた場合にはステップS18に進み、一方、全ての交差空間について、飛び出し可能性算出処理が行われていない場合にはステップS16に戻り、飛び出し可能性が算出されていない交差空間について、ステップS16の飛び出し可能性算出処理が行われる。   Next, in step S17, it is determined whether the pop-out possibility calculation processing in step S16 has been performed for all detected intersection spaces. If the pop-out possibility calculation process has been performed for all the intersection spaces, the process proceeds to step S18. On the other hand, if the pop-out possibility calculation process has not been performed for all the cross spaces, the process returns to step S16. For the intersection space for which the pop-out possibility is not calculated, the pop-out possibility calculation process in step S16 is performed.

ステップS18では、属性情報付加機能により、検出された境界線に、レーンマークの種類や、飛び出し可能性などの属性情報が付加される。例えば、車両が走行する走路と構造物との境界線である走路境界線には、飛び出し可能性に応じた位置情報が付加される。これにより、図17および図18に示すように、ディスプレイ50の画面上では、交差空間の位置において、走路境界線が車両走路側の位置になるよう表示され、ユーザに物体が飛び出す可能性のある交差空間の位置を伝達することができる。なお、ステップS18は、ステップS16の飛び出し可能性算出処理の直後に行ってもよい。   In step S18, attribute information such as the type of lane mark and the possibility of popping out is added to the detected boundary line by the attribute information addition function. For example, position information corresponding to the possibility of popping is added to a road boundary that is a boundary between a road on which a vehicle travels and a structure. As a result, as shown in FIGS. 17 and 18, on the screen of the display 50, the road boundary line is displayed at the position of the vehicle road at the position of the intersection space, and there is a possibility that the object may jump out to the user. The position of the intersection space can be transmitted. Note that step S18 may be performed immediately after the pop-out possibility calculation process in step S16.

続くステップS19では、出力機能により、飛び出し可能性または属性情報に基づいて、例えば、車両コントローラ30を制御するための制御信号、スピーカ40から警告を発信するための警告信号、および飛び出し可能性が高い領域をディスプレイ50の画面上に表示するための画像信号が生成される。そして、生成された信号は、車両コントローラ30、スピーカ40、およびディスプレイ50へと出力される。   In the subsequent step S19, for example, a control signal for controlling the vehicle controller 30, a warning signal for sending a warning from the speaker 40, and a possibility of popping out are high based on the popping possibility or attribute information by the output function. An image signal for displaying the area on the screen of the display 50 is generated. Then, the generated signal is output to the vehicle controller 30, the speaker 40, and the display 50.

これにより、車両コントローラ30は、飛び出し可能性に応じて、図示しないステアリング、アクセル、およびブレーキなどの各種装置の制御を行い、またスピーカ40は、飛び出し可能性に応じて、歩行者や車などの飛び出し警報を音声で発信し、またディスプレイ50は、図17または図18に示すように、歩行者や車などの飛び出す可能性が高い領域の位置を、ディスプレイ50に備える画面上に表示することができる。   As a result, the vehicle controller 30 controls various devices such as a steering, an accelerator, and a brake (not shown) according to the possibility of jumping out, and the speaker 40 controls a pedestrian, a car, etc. according to the possibility of jumping out. As shown in FIG. 17 or FIG. 18, the pop-out warning is transmitted by voice, and the display 50 can display the position of a region where there is a high possibility of popping out such as a pedestrian or a car on the screen provided in the display 50. it can.

ステップS20では、イグニッションがOFFであるか判断される。イグニッションがOFFであれば、この走行支援処理を終了する。一方、イグニッションがONの場合は、ステップS2に戻り、再度、この走行支援処理が行われる。   In step S20, it is determined whether the ignition is OFF. If the ignition is OFF, the driving support process is terminated. On the other hand, when the ignition is ON, the process returns to step S2 and the driving support process is performed again.

以上のように、本実施形態においては、自車両が走行する走路の外側領域に存在する構造物から抽出されたエッジ成分に基づいて、自車両の走行方向の空間と交差する空間である交差空間を検出し、検出された交差空間に基づいて、車両や人などが走路に飛び出す可能性を算出する。このように、構造物の特徴点に基づいて飛び出し可能性を算出することで、路面の状態、構造物および構造物の背景の明度、昼間か夜間かの違いに影響されることなく、物体が走路に飛び出す可能性を適切に算出することができる。その結果、算出した飛び出し可能性に基づいて、ユーザの運転を適切に支援することができる。例えば、飛び出し可能性が高い場合には、車両のブレーキ、アクセル、およびステアリングを制御し、またはスピーカ40による警告を発することで、ユーザの運転を支援することができる。   As described above, in the present embodiment, an intersection space that is a space that intersects the space in the traveling direction of the host vehicle based on the edge component extracted from the structure existing in the outer region of the traveling path on which the host vehicle travels. And the possibility of a vehicle or a person jumping out on the runway is calculated based on the detected intersection space. Thus, by calculating the possibility of popping out based on the feature points of the structure, the object can be detected without being affected by the road surface condition, the brightness of the structure and the background of the structure, the difference between daytime or nighttime. The possibility of jumping to the runway can be calculated appropriately. As a result, the user's driving can be appropriately supported based on the calculated pop-out possibility. For example, when the possibility of popping out is high, the user's driving can be supported by controlling the brake, accelerator, and steering of the vehicle or issuing a warning by the speaker 40.

加えて、本実施形態では、図17および図18に示すように、飛び出し可能性が高い位置をディスプレイ50に表示することで、ユーザに、物体が走路に飛び出しに対する注意を促すことができる。特に、飛び出し可能性が高いほど、交差空間における走路境界線の位置情報を、自車両が走行する走路側の位置になるように補正することで、物体の飛び出しに対する注意をユーザに促すことができることに加えて、例えば、補正した走路境界線を用いて、物体の飛び出しに対する安全な回避経路を決定することができるため、ユーザの運転を適切に支援することができる。   In addition, in the present embodiment, as shown in FIGS. 17 and 18, the position where the possibility of jumping is high is displayed on the display 50, so that the user can be alerted to the jumping of the object on the runway. In particular, the higher the possibility of jumping out, the more the position information of the road boundary line in the intersection space is corrected so that it becomes the position on the road side where the host vehicle travels, so that the user can be alerted to the object jumping out. In addition, for example, it is possible to determine a safe avoidance route against the jumping out of the object using the corrected travel route boundary line, and thus it is possible to appropriately support the user's driving.

また、本実施形態では、対象領域に基づいて交差空間を検出する際に、対象領域に対応する画素のうち、縦速度情報または横速度情報を有する画素の割合が、所定の割合以下であるか判断することで、対象領域が壁などの構造物に対応するものか、あるいは交差空間に対応するものかを判断する。これにより、交差空間の誤検出を抑制し、飛び出し可能性の算出精度を向上することができる。   In the present embodiment, when the intersection space is detected based on the target area, the ratio of the pixels having the vertical speed information or the horizontal speed information among the pixels corresponding to the target area is equal to or less than a predetermined ratio. By determining, it is determined whether the target region corresponds to a structure such as a wall or an intersection space. Thereby, the erroneous detection of the intersection space can be suppressed and the calculation accuracy of the pop-out possibility can be improved.

さらに、本実施形態では、交差空間の幅Wが広いほど、飛び出し可能性を高く算出する。交差空間の幅Wが広い場合には、交差空間の幅Wが狭い場合と比べて、自動車など高速で移動する物体が走路に飛び出す可能性が高くなると想定される。そこで、交差空間の幅Wに応じて飛び出し可能性を算出することで、交差空間から自動車などが飛び出す場面に応じた運転支援を適切に行うことができる。   Furthermore, in this embodiment, the greater the width W of the intersection space, the higher the possibility of popping out. When the width W of the intersection space is wide, it is assumed that there is a higher possibility that an object that moves at a high speed, such as an automobile, will jump out on the runway, compared to the case where the width W of the intersection space is narrow. Therefore, by calculating the possibility of popping out according to the width W of the intersection space, it is possible to appropriately perform driving support according to the scene in which a car or the like jumps out of the intersection space.

加えて、本実施形態では、交差空間の高さHが低いほど、飛び出し可能性を高く算出する。交差空間の高さHは交差空間に隣接する構造物の高さであり、交差空間の高さHが低いほど、歩行者や動物が、交差空間に隣接する構造物を乗り越えて走路に飛び出す可能性が高くなると想定される。そこで、交差空間の高さHに応じて飛び出し可能性を高く算出することで、歩行者や動物が構造物を乗り越えて走路に飛び出す場面に応じた運転支援を適切に行うことができる。   In addition, in the present embodiment, the possibility of popping out is calculated higher as the height H of the intersection space is lower. The height H of the intersection space is the height of the structure adjacent to the intersection space. The lower the height H of the intersection space, the more pedestrians and animals can jump over the structure adjacent to the intersection space and jump out to the runway. Is expected to increase. Therefore, by calculating the possibility of jumping out according to the height H of the intersection space, it is possible to appropriately perform driving support according to the scene where the pedestrian or animal jumps over the structure and jumps out to the runway.

また、本実施形態では、交差空間を検出する際に、自車両が走行する走路の中心位置から見て、走路上のレーンマークよりも外側の領域を、交差空間を検出するための処理領域として設定する。交差空間は、自車両の進行方向の空間と交差する空間であり、自車両が走行する走路の外側領域において検出される。そのため、レーンマークよりも外側の領域を、交差空間を検出するための処理領域として設定することで、交差空間の検出処理を効率的に行うことができる。   Further, in the present embodiment, when detecting the intersection space, an area outside the lane mark on the road as seen from the center position of the road on which the host vehicle travels is used as a processing area for detecting the intersection space. Set. The intersection space is a space that intersects the space in the traveling direction of the host vehicle, and is detected in an outer region of the runway on which the host vehicle travels. Therefore, by setting an area outside the lane mark as a processing area for detecting the intersection space, the intersection space detection process can be performed efficiently.

さらに、本実施形態では、物体の走路への飛び出しに対する対処が困難となる状況において、飛び出し可能性を高く算出することで、物体の飛び出しに応じた運転支援を適切に行う。例えば、自車両の車速が速い場合に、飛び出し可能性を高く算出する。これにより、自車両が高速で走行している場合でも、物体の飛び出しに対する運転支援を適切に行うことができる。また、ヘッドライトが点灯している場合に、飛び出し可能性を高く算出することで、夜間の運転中においても、物体の飛び出しに対する運転支援を適切に行うことができる。加えて、ワイパーが動作している場合に飛び出し可能性を高く算出することで、走行環境が雨や雪などの状況においても、物体の飛び出しに対する運転支援を適切に行うことができる。   Furthermore, in the present embodiment, in a situation where it is difficult to cope with the jumping out of the object to the running path, the driving support corresponding to the jumping out of the object is appropriately performed by calculating the possibility of jumping out. For example, when the vehicle speed of the host vehicle is high, the possibility of popping out is calculated high. As a result, even when the host vehicle is traveling at high speed, it is possible to appropriately perform driving support for an object jumping out. Further, when the headlight is turned on, by calculating the possibility of popping out, driving assistance for popping out an object can be appropriately performed even during night driving. In addition, by calculating the possibility of jumping out when the wiper is operating, driving assistance for jumping out of an object can be appropriately performed even in a driving environment such as rain or snow.

以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

なお、上述した実施形態のカメラ10は本発明の撮像手段に、エッジ抽出機能は本発明の抽出手段に、最下点位置検出機能は本発明の最下点位置検出手段に、境界線検出機能は本発明の境界線検出手段に、交差空間検出機能は本発明の交差空間検出手段に、飛び出し可能性算出機能は本発明の算出手段に、属性情報付加機能は本発明の付加手段にそれぞれ相当する。   Note that the camera 10 of the above-described embodiment is the imaging means of the present invention, the edge extraction function is the extraction means of the present invention, the lowest point position detection function is the lowest point position detection means of the present invention, and the boundary line detection function. Corresponds to the boundary detection means of the present invention, the intersection space detection function corresponds to the intersection space detection means of the present invention, the pop-out possibility calculation function corresponds to the calculation means of the present invention, and the attribute information addition function corresponds to the addition means of the present invention. To do.

10…カメラ
20…制御装置
30…車両コントローラ
40…スピーカ
50…ディスプレイ
DESCRIPTION OF SYMBOLS 10 ... Camera 20 ... Control apparatus 30 ... Vehicle controller 40 ... Speaker 50 ... Display

Claims (12)

車両前方を撮像する撮像手段と、
前記撮像手段で撮像した画像の情報に基づいて、画像中で移動した物体のエッジ成分を抽出する抽出手段と、
前記画像中の所定領域において、前記抽出手段により抽出された前記エッジ成分に対応する画素が複数連続してなる画素列を構成する各画素のうち、高さ方向において最も下側に位置する画素の位置を最下点位置として検出する最下点位置検出手段と、
前記車両の進行方向に沿って、前記最下点位置検出手段により検出された前記最下点位置同士を結ぶ直線を、自車両が走行する走路の境界線として検出する境界線検出手段と、を備える走行支援装置において、
前記最下点位置に基づいて、自車両の進行方向の空間と交差する空間である交差空間を検出する交差空間検出手段と、
前記交差空間検出手段により検出された交差空間に基づいて、自車両が走行する走路上に、物体が飛び出す可能性を算出する算出手段と、を有することを特徴とする走行支援装置。
Imaging means for imaging the front of the vehicle;
Extraction means for extracting an edge component of an object moved in the image based on information of the image captured by the imaging means;
Of the pixels constituting the pixel row in which a plurality of pixels corresponding to the edge component extracted by the extraction means are continuously arranged in the predetermined region in the image, the pixel located at the lowest side in the height direction Lowest point position detection means for detecting the position as the lowest point position;
Boundary line detection means for detecting a straight line connecting the lowest point positions detected by the lowest point position detection means along the traveling direction of the vehicle as a boundary line of a travel path on which the host vehicle travels. In the driving support device provided,
An intersecting space detecting means for detecting an intersecting space that is a space intersecting with the space in the traveling direction of the host vehicle based on the lowest point position;
A driving support device, comprising: a calculating unit that calculates a possibility of an object jumping out on a running path on which the host vehicle travels based on the intersecting space detected by the intersecting space detecting unit.
請求項1に記載の走行支援装置であって、
前記境界線検出手段は、前記境界線からレーンマークを検出し、
前記交差空間検出手段は、前記走路の中心から見た場合に、前記レーンマークよりも外側となる領域において前記交差空間を検出することを特徴とする走行支援装置。
The driving support device according to claim 1,
The boundary detection means detects a lane mark from the boundary,
The crossing space detecting means detects the crossing space in a region outside the lane mark when viewed from the center of the running road.
請求項1または2に記載の走行支援装置であって、
前記交差空間検出手段は、前記エッジ成分に対応する複数の画素のうち、高さ方向に垂直な方向に連続する複数の画素からなる第1画素列と、前記最下点位置から高さ方向に沿って連続する複数の画素からなる第2画素列とが交わる交点を1つの角とし、かつ、互いに交わる前記第1画素列および前記第2画素列を2辺とする矩形状領域に対応する空間を、前記交差空間として検出することを特徴とする走行支援装置。
The driving support device according to claim 1 or 2,
The intersecting space detecting means includes a first pixel row composed of a plurality of pixels continuous in a direction perpendicular to a height direction among a plurality of pixels corresponding to the edge component, and a height direction from the lowest point position. A space corresponding to a rectangular region having an intersection at which a second pixel column composed of a plurality of continuous pixels intersects as one corner and two sides of the first pixel column and the second pixel column intersecting each other Is detected as the intersection space.
請求項3に記載の走行支援装置であって、
前記交差空間検出手段は、前記矩形状領域に対応する全ての画素に対する、前記エッジ成分に対応する画素の割合に基づいて、前記矩形状領域に対応する空間を、前記交差空間として検出することを特徴とする走行支援装置。
It is a driving assistance device according to claim 3,
The intersecting space detecting means detects a space corresponding to the rectangular region as the intersecting space based on a ratio of pixels corresponding to the edge component to all pixels corresponding to the rectangular region. A featured travel support device.
請求項3または4に記載の走行支援装置であって、
前記交差空間検出手段は、前記矩形状領域に対応する前記交差空間の幅を、該矩形状領域の1辺をなす前記第1画素列の長さに基づいて、検出することを特徴とする走行支援装置。
It is a driving assistance device according to claim 3 or 4,
The intersection space detecting means detects the width of the intersection space corresponding to the rectangular area based on the length of the first pixel row forming one side of the rectangular area. Support device.
請求項3〜5のいずれかに記載の走行支援装置であって、
前記交差空間検出手段は、前記矩形状領域に対応する前記交差空間の高さを、該矩形状領域の1辺をなす前記第2画素列の長さに基づいて、検出することを特徴とする走行支援装置。
The driving support device according to any one of claims 3 to 5,
The intersecting space detecting means detects the height of the intersecting space corresponding to the rectangular area based on the length of the second pixel row forming one side of the rectangular area. Driving support device.
請求項5に記載の走行支援装置であって、
前記算出手段は、前記交差空間の幅が広いほど、物体が飛び出す可能性を高く算出することを特徴とする走行支援装置。
The driving support device according to claim 5,
The driving means according to claim 1, wherein the calculating means calculates a possibility that an object will pop out as the width of the intersection space increases.
請求項6に記載の走行支援装置であって、
前記算出手段は、前記交差空間の高さが低いほど、物体が飛び出す可能性を高く算出することを特徴とする走行支援装置。
The driving support device according to claim 6,
The said calculating means calculates the possibility that an object will jump out so that the height of the said intersection space is low, The driving assistance apparatus characterized by the above-mentioned.
請求項1〜8のいずれかに記載の走行支援装置であって、
前記算出手段は、車速情報、ヘッドライトの動作情報、およびワイパーの動作情報のうち、さらに少なくとも一つの情報に基づいて、物体が飛び出す可能性を算出することを特徴とする走行支援装置。
It is a driving assistance device in any one of Claims 1-8,
The driving means is characterized in that the calculating means calculates the possibility of an object jumping out based on at least one of vehicle speed information, headlight operation information, and wiper operation information.
請求項1〜9のいずれかに記載の走行支援装置であって、
前記境界線検出手段により検出された前記境界線に、前記境界線の属性を示す属性情報を付加する付加手段をさらに有することを特徴とする走行支援装置。
A driving support device according to any one of claims 1 to 9,
The driving support apparatus further comprising an adding unit that adds attribute information indicating an attribute of the boundary line to the boundary line detected by the boundary line detection unit.
請求項10に記載の走行支援装置であって、
前記付加手段は、前記物体が飛び出す可能性に応じて、前記属性情報を決定することを特徴とする走行支援装置。
The driving support device according to claim 10,
The said support means determines the said attribute information according to the possibility that the said object jumps out, The driving assistance apparatus characterized by the above-mentioned.
車両前方を撮像した画像の情報に基づいて、画像中で移動する物体のエッジ成分を抽出し、前記画像中の所定領域において、前記抽出されたエッジ成分に対応する画素が複数連続してなる画素列を構成する各画素のうち、高さ方向において最も下側に位置する画素の位置を最下点位置として検出し、前記最下点位置に基づいて、自車両の進行方向の空間と交差する空間である交差空間を検出し、前記交差空間に基づいて、自車両が走行する走路に、物体が飛び出す可能性を算出することを特徴とする走行支援方法。   A pixel in which an edge component of an object moving in the image is extracted based on information of an image captured in front of the vehicle, and a plurality of pixels corresponding to the extracted edge component are consecutive in a predetermined region in the image Among the pixels constituting the column, the position of the pixel located at the lowest side in the height direction is detected as the lowest point position, and intersects with the space in the traveling direction of the host vehicle based on the lowest point position. A driving support method, wherein a crossing space that is a space is detected, and a possibility that an object jumps out on a road on which the host vehicle runs is calculated based on the crossing space.
JP2009130080A 2009-05-29 2009-05-29 Driving support device and driving support method Active JP5434277B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009130080A JP5434277B2 (en) 2009-05-29 2009-05-29 Driving support device and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009130080A JP5434277B2 (en) 2009-05-29 2009-05-29 Driving support device and driving support method

Publications (2)

Publication Number Publication Date
JP2010277384A true JP2010277384A (en) 2010-12-09
JP5434277B2 JP5434277B2 (en) 2014-03-05

Family

ID=43424278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009130080A Active JP5434277B2 (en) 2009-05-29 2009-05-29 Driving support device and driving support method

Country Status (1)

Country Link
JP (1) JP5434277B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006588A (en) * 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc Road surface boundary estimation device and program
JP2015203993A (en) * 2014-04-14 2015-11-16 本田技研工業株式会社 object recognition device
CN111381263A (en) * 2018-12-28 2020-07-07 沈阳美行科技有限公司 Positioning method, positioning device, electronic equipment and storage medium
JP2020154533A (en) * 2019-03-19 2020-09-24 本田技研工業株式会社 Risk estimation device and automatic driving device
WO2020235027A1 (en) * 2019-05-22 2020-11-26 三菱電機株式会社 Driving assistance device and driving assistance method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004171165A (en) * 2002-11-19 2004-06-17 Honda Motor Co Ltd Moving apparatus
JP2007076378A (en) * 2005-09-09 2007-03-29 Nissan Motor Co Ltd Lighting apparatus and method for vehicle
JP2007183912A (en) * 2005-12-06 2007-07-19 Nissan Motor Co Ltd Apparatus and method for detecting lane line
JP2009020577A (en) * 2007-07-10 2009-01-29 Omron Corp Detection device and method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004171165A (en) * 2002-11-19 2004-06-17 Honda Motor Co Ltd Moving apparatus
JP2007076378A (en) * 2005-09-09 2007-03-29 Nissan Motor Co Ltd Lighting apparatus and method for vehicle
JP2007183912A (en) * 2005-12-06 2007-07-19 Nissan Motor Co Ltd Apparatus and method for detecting lane line
JP2009020577A (en) * 2007-07-10 2009-01-29 Omron Corp Detection device and method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006588A (en) * 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc Road surface boundary estimation device and program
JP2015203993A (en) * 2014-04-14 2015-11-16 本田技研工業株式会社 object recognition device
CN111381263A (en) * 2018-12-28 2020-07-07 沈阳美行科技有限公司 Positioning method, positioning device, electronic equipment and storage medium
JP2020154533A (en) * 2019-03-19 2020-09-24 本田技研工業株式会社 Risk estimation device and automatic driving device
JP7092702B2 (en) 2019-03-19 2022-06-28 本田技研工業株式会社 Risk estimation device and autonomous driving device
WO2020235027A1 (en) * 2019-05-22 2020-11-26 三菱電機株式会社 Driving assistance device and driving assistance method
JPWO2020235027A1 (en) * 2019-05-22 2021-10-14 三菱電機株式会社 Driving support device and driving support method
JP7170862B2 (en) 2019-05-22 2022-11-14 三菱電機株式会社 Driving support device and driving support method

Also Published As

Publication number Publication date
JP5434277B2 (en) 2014-03-05

Similar Documents

Publication Publication Date Title
JP6471528B2 (en) Object recognition apparatus and object recognition method
JP5961207B2 (en) Outside environment recognition device
JP4654163B2 (en) Vehicle surrounding environment recognition device and system
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
JP5622648B2 (en) Image processing device
JP6457278B2 (en) Object detection apparatus and object detection method
JP2008158958A (en) Road surface determination method and road surface determination device
JP2014006885A (en) Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP6236039B2 (en) Outside environment recognition device
JP2006350699A (en) Image processor and image processing method
JP2010088045A (en) Night view system, and nighttime walker display method
JP5434277B2 (en) Driving support device and driving support method
US20160180158A1 (en) Vehicle vision system with pedestrian detection
JP2009298344A (en) Apparatus and program for determining lights of vehicle
JP2020077293A (en) Lane line detection device and lane line detection method
JP2015192430A (en) Outside vehicle environment recognition device
JP6339840B2 (en) Outside environment recognition device
JP5189556B2 (en) Lane detection device
JP2007310591A (en) Image processor and parking space determination method
JP6174960B2 (en) Outside environment recognition device
JP2019114150A (en) Extravehicular environment recognition device
JP6243780B2 (en) Outside environment recognition device
JP5727639B2 (en) Vehicle detection device
EP3329419A1 (en) Method for capturing an object on a road in the environment of a motor vehicle, camera system and motor vehicle using the same
JP6348747B2 (en) Outside environment recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131125

R150 Certificate of patent or registration of utility model

Ref document number: 5434277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150