JP2014179052A - Image processor, image processing method, image processing program, image processing system and mobile device - Google Patents

Image processor, image processing method, image processing program, image processing system and mobile device Download PDF

Info

Publication number
JP2014179052A
JP2014179052A JP2013111034A JP2013111034A JP2014179052A JP 2014179052 A JP2014179052 A JP 2014179052A JP 2013111034 A JP2013111034 A JP 2013111034A JP 2013111034 A JP2013111034 A JP 2013111034A JP 2014179052 A JP2014179052 A JP 2014179052A
Authority
JP
Japan
Prior art keywords
image
area
parallax
image processing
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013111034A
Other languages
Japanese (ja)
Other versions
JP6252727B2 (en
Inventor
Yuki Ri
雪 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013111034A priority Critical patent/JP6252727B2/en
Publication of JP2014179052A publication Critical patent/JP2014179052A/en
Application granted granted Critical
Publication of JP6252727B2 publication Critical patent/JP6252727B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processor for detecting a travel area imaged in an image with high accuracy.SOLUTION: The image processor has frequency calculation means for calculating a frequency of a parallax of a small area every horizontal position of an image about a parallax calculated by parallax calculation means, inter-boundary small area calculation means for calculating an inter-boundary small area being a prescribed small area located between two boundary areas detected by boundary area detection means, and a travel area detection means for detecting a travel area from the inter-boundary small area toward a small area of a horizontal end part in the image on the basis of the frequency.

Description

本発明は、画像処理装置、画像処理方法、画像処理プログラム、画像処理システム及び移動装置に関する。   The present invention relates to an image processing device, an image processing method, an image processing program, an image processing system, and a moving device.

従来、車両、船舶、航空機、または産業用ロボット等(以降、車両等という)の移動において、移動の障害となる立体物を検知する技術の開発が進められている。特に、車両等が走行する道路を認識し、道路上に立体物が存在するか否かを判断する技術が知られている。   2. Description of the Related Art Conventionally, development of a technique for detecting a three-dimensional object that obstructs movement in movement of a vehicle, a ship, an aircraft, an industrial robot, or the like (hereinafter referred to as a vehicle) has been advanced. In particular, a technique for recognizing a road on which a vehicle or the like travels and determining whether a three-dimensional object exists on the road is known.

特許文献1には三次元的な位置情報を利用し、実際の道路上の白線だけを分離して道路形状を認識する技術が記載されている。特許文献1に記載の技術においては、2台のCCDカメラを有するステレオ画像処理装置が撮影した画像を処理することによって、画像を表す二次元の情報と、撮像物までの距離データと、を含む三次元の情報を取得する。そして、三次元の情報が表す空間では白線は道路の平面上にあり、一方、先行車などの立体物は道路の平面より高い位置にあるとしている。このようにして、ステレオ画像処理装置は取得された三次元の情報により白線からの高さによって道路か立体物であるかを区別している。   Patent Document 1 describes a technology for recognizing a road shape by separating only white lines on an actual road using three-dimensional position information. The technique described in Patent Document 1 includes two-dimensional information representing an image and distance data to an imaged object by processing an image captured by a stereo image processing apparatus having two CCD cameras. Get 3D information. In the space represented by the three-dimensional information, the white line is on the road plane, while the three-dimensional object such as the preceding vehicle is at a position higher than the road plane. In this way, the stereo image processing apparatus distinguishes whether it is a road or a three-dimensional object according to the height from the white line based on the acquired three-dimensional information.

また、一般的に車両等に搭載されている撮像装置によって撮像される撮像画像においては、撮像画像の左右それぞれに建物、ガードレール、壁等(以降、建物等という)が撮像される。特許文献2に記載の技術では、複数の撮像画像から算出された視差に基づいて建物等の壁に相当する部分を検出することによって、走行領域を検出している。ここで走行領域とは、左右に撮像されている建物等の間にある領域をいう。   Further, in a captured image that is generally captured by an imaging device mounted on a vehicle or the like, buildings, guardrails, walls, and the like (hereinafter referred to as buildings) are captured on the left and right of the captured image. In the technique described in Patent Literature 2, a traveling region is detected by detecting a portion corresponding to a wall such as a building based on parallax calculated from a plurality of captured images. Here, the traveling area refers to an area between buildings and the like that are imaged on the left and right.

しかしながら、路面が進行方向に対して右にカーブしている場合、図24に示されるように撮像装置から離れるほど車両等が走行できる走行領域は右にあることが想定される。
走行領域が右にあることが想定されるにもかかわらず、画像内の全ての領域から走行領域を検出しようとすると、たとえばノイズ等のために、図24のCで示されるような画像内の左上端部の近傍で走行領域が検出されてしまうことがある。同様に、路面が進行方向に対して左にカーブしている場合、撮像装置から離れるほど走行領域は左にあることが想定される。それにもかかわらず、画像内の全ての領域で白線を検出しようとすると、画像内の右上端部の近傍の領域で走行領域が検出されてしまうことがある。
このように、画像内の全ての領域について走行領域であるか否かを判定すると誤判定が発生し、画像内に撮像されている走行領域を高い精度で検出することができないという課題が発生している。
However, when the road surface is curved to the right with respect to the traveling direction, as shown in FIG. 24, it is assumed that the travel region in which the vehicle or the like can travel is on the right as the distance from the imaging device increases.
Even if it is assumed that the traveling area is on the right, if an attempt is made to detect the traveling area from all the areas in the image, for example, due to noise or the like, A traveling region may be detected near the upper left corner. Similarly, when the road surface is curved to the left with respect to the traveling direction, it is assumed that the traveling region is on the left side as the distance from the imaging device increases. Nevertheless, if a white line is to be detected in all the areas in the image, the running area may be detected in the area near the upper right end in the image.
As described above, when it is determined whether or not all areas in the image are travel areas, an erroneous determination occurs, and there is a problem that the travel area captured in the image cannot be detected with high accuracy. ing.

上述した課題を解決するため本発明においては、複数の境界が撮像された複数の画像を処理する画像処理装置であって、前記画像に撮像されている境界領域を検出する境界領域検出手段と、複数の前記画像を構成する小領域の視差を算出する視差算出手段と、前記視差算出手段によって算出された前記視差について、前記画像の水平方向の位置ごとに前記小領域の視差の度数を算出する度数算出手段と、前記境界領域検出手段によって検出された2つの境界領域の間にある所定の小領域である境界間小領域を算出する境界間小領域算出手段と、前記境界間小領域から前記画像内における水平方向の端部の小領域に向かって、前記度数に基づいて走行領域を検出する前記走行領域検出手段と、を有することを特徴とする。   In order to solve the above-described problem, in the present invention, an image processing apparatus that processes a plurality of images in which a plurality of boundaries are captured, a boundary region detection unit that detects a boundary region captured in the image, A parallax calculation unit that calculates parallaxes of the small areas constituting the plurality of images, and a parallax frequency of the small area is calculated for each position in the horizontal direction of the image with respect to the parallaxes calculated by the parallax calculation unit. A frequency calculation means, a boundary small area calculation means for calculating a small area between boundaries that is a predetermined small area between two boundary areas detected by the boundary area detection means, and And a travel region detecting unit configured to detect a travel region based on the frequency toward a small region at a horizontal end in the image.

本発明によれば、視差算出手段によって算出された視差について、画像の水平方向の位置ごとに小領域の視差の度数を算出する度数算出手段と、境界領域検出手段によって検出された2つの境界領域の間にある所定の小領域である境界間小領域を算出する境界間小領域算出手段と、前記境界間小領域から前記画像内における水平方向の端部の小領域に向かって、前記度数に基づいて走行領域を検出する前記走行領域検出手段と、を有するため、画像内における走行領域を高い精度で判定することができるという効果を奏する。 According to the present invention, for the parallax calculated by the parallax calculating means, the frequency calculating means for calculating the frequency of the parallax of the small area for each position in the horizontal direction of the image, and the two boundary areas detected by the boundary area detecting means A small inter-boundary region calculating means for calculating a small inter-boundary region that is a predetermined small region between the boundary and the frequency from the small inter-boundary region toward the small region at the end in the horizontal direction in the image. And the travel region detecting means for detecting the travel region based on the travel region detection means, the travel region in the image can be determined with high accuracy.

画像処理システム1を搭載した車両等の一例を表す概略図である。1 is a schematic diagram illustrating an example of a vehicle or the like on which an image processing system 1 is mounted. 画像処理システム1のハードウェア構成図である。2 is a hardware configuration diagram of the image processing system 1. FIG. 画像処理システム1の機能構成図である。1 is a functional configuration diagram of an image processing system 1. FIG. 撮像部が撮像した撮像画像の一例である。It is an example of the captured image which the imaging part imaged. 視差dxyについて説明するための図である。It is a figure for demonstrating parallax dxy . 基準画像Iaの一部Aを拡大した図、一部Aの小領域ごとの輝度を表した図、および一部Aの小領域ごとの輝度差を表した図である。FIG. 4 is an enlarged view of a part A of a reference image Ia, a figure showing luminance for each small area of part A, and a figure showing a luminance difference for each small area of part A. 白線エッジの位置を表すy座標とその位置における視差dの対応関係を表す図である。Is a diagram showing a correspondence relationship between the parallax d e in the y-coordinate and its position representative of the position of the white line edge. 基準画像Iaから度数Cを算出するために用いる図である。It is a figure used in order to calculate the frequency C from the reference | standard image Ia. 基準画像Iaにおける度数Cの分布を表す度数分布図である。It is a frequency distribution diagram showing the distribution of the frequency C in the reference image Ia. 画像処理システム1の処理の概要を表すフロー図である。3 is a flowchart showing an outline of processing of the image processing system 1. FIG. 信号変換部52の処理を表すフロー図である。6 is a flowchart showing processing of a signal conversion unit 52. FIG. エッジ候補検出部55の第一の処理を表すフロー図である。10 is a flowchart showing a first process of an edge candidate detection unit 55. FIG. エッジ候補検出部55の第二の処理の概要を説明するためのフロー図である。12 is a flowchart for explaining an outline of second processing of the edge candidate detection unit 55. FIG. エッジ候補検出部55の第二の処理の詳細を表すフロー図である。12 is a flowchart showing details of second processing of the edge candidate detection unit 55. FIG. 基準画像Iaの一部Aを拡大した図である。It is the figure which expanded a part A of the reference | standard image Ia. カーブ方向判定部58の処理を表すフロー図である。It is a flowchart showing the process of the curve direction determination part 58. FIG. 直線交点検出部581の処理を表すフロー図である。FIG. 11 is a flowchart showing processing of a straight intersection detection unit 581. 消失点検出部582の処理を表すフロー図である。FIG. 10 is a flowchart showing processing of a vanishing point detection unit 582. 白線視差決定部56の処理を表すフロー図である。FIG. 10 is a flowchart showing processing of white line parallax determination unit 56. 走行領域検出部57の処理を表すフロー図である。FIG. 10 is a flowchart showing processing of a travel region detection unit 57. 度数判定部572の処理を表すフロー図である。It is a flowchart showing the process of the frequency determination part 572. 画像処理システム1の機能構成図の他の例である。4 is another example of a functional configuration diagram of the image processing system 1. FIG. 基準画像Iaの一部Aの小領域ごとの輝度差を表した図、および一部Aの小領域ごとの視差を表した図である。FIG. 6 is a diagram showing a luminance difference for each small region of a part A of a reference image Ia and a diagram showing a parallax for each small region of part A. 撮像部が撮像した撮像画像の一例である。It is an example of the captured image which the imaging part imaged.

本発明の実施形態について図1乃至図24を用いて説明する。   An embodiment of the present invention will be described with reference to FIGS.

〔画像処理システム1のハードウェア構成〕
まず、本発明の実施形態における画像処理システム1のハードウェア構成について説明する。図1は本実施形態に係る画像処理システム1を搭載した自動車を表す概念図である。図1(1)は画像処理システム1が設けられている車両等の一例である自動車の側面の概観図である。図1(2)は図1(1)に表されている自動車の前面の概観図である。図2は、画像処理システム1のハードウェア構成図である。
[Hardware Configuration of Image Processing System 1]
First, the hardware configuration of the image processing system 1 in the embodiment of the present invention will be described. FIG. 1 is a conceptual diagram showing an automobile equipped with an image processing system 1 according to the present embodiment. FIG. 1A is an overview of a side surface of an automobile that is an example of a vehicle or the like in which an image processing system 1 is provided. FIG. 1 (2) is a schematic view of the front of the automobile shown in FIG. 1 (1). FIG. 2 is a hardware configuration diagram of the image processing system 1.

図1(1)及び(2)に示されるように、画像処理システム1は撮像装置10a及び撮像装置10bを備えており、撮像装置10a及び撮像装置10bは自動車の進行方向前方の光景を撮像するように設置されている。図2に示されるように、画像処理システム1は撮像装置10a、撮像装置10b、信号変換装置20a、信号変換装置20b、及び画像処理装置30を有している。撮像装置10aは前方の光景を撮像して撮像画像を表すアナログ信号を生成するものであり、撮像レンズ11a、絞り12a、画像センサ13aを有している。   As shown in FIGS. 1 (1) and (2), the image processing system 1 includes an imaging device 10a and an imaging device 10b, and the imaging device 10a and the imaging device 10b capture a scene in front of the traveling direction of the automobile. It is installed as follows. As illustrated in FIG. 2, the image processing system 1 includes an imaging device 10 a, an imaging device 10 b, a signal conversion device 20 a, a signal conversion device 20 b, and an image processing device 30. The imaging device 10a captures a front scene and generates an analog signal representing a captured image, and includes an imaging lens 11a, a diaphragm 12a, and an image sensor 13a.

撮像レンズ11aは、撮像レンズ11aを通過する光を屈折させて被写体Sの像を結像させるための光学素子である。絞り12aは、撮像レンズ11aを通過した光の一部を遮ることによって、後述する画像センサ13aに入力される光の量を調整する。画像センサ13aは、撮像レンズ11a及び絞り12aから入力された光を電気的なアナログの画像信号に変換する半導体の素子であり、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)によって実現される。   The imaging lens 11a is an optical element for forming an image of the subject S by refracting light passing through the imaging lens 11a. The diaphragm 12a adjusts the amount of light input to the image sensor 13a described later by blocking part of the light that has passed through the imaging lens 11a. The image sensor 13a is a semiconductor element that converts light input from the imaging lens 11a and the aperture 12a into an electrical analog image signal, and is realized by a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor). The

また、撮像装置10bは撮像装置10aと同じ構成を有している。そのため撮像装置10bについての説明は省略する。また、撮像レンズ11aに係る撮像面と撮像レンズ11bに係る撮像面が同一平面内となるように、撮像レンズ11a及び撮像レンズ11bは設置されている。   The imaging device 10b has the same configuration as the imaging device 10a. Therefore, the description about the imaging device 10b is omitted. The imaging lens 11a and the imaging lens 11b are installed so that the imaging surface related to the imaging lens 11a and the imaging surface related to the imaging lens 11b are in the same plane.

信号変換装置20aは、撮像画像を表すアナログ信号をデジタル形式の撮像画像データに変換するものであり、CDS(Correlated Double Sampling)21a、AGC(Auto Gain Control)22a、ADC(Analog Degital Converter)23a、及びフレームメモリ24aを有している。   The signal conversion device 20a converts an analog signal representing a captured image into captured image data in a digital format, such as a CDS (Correlated Double Sampling) 21a, an AGC (Auto Gain Control) 22a, an ADC (Analog Digital Converter) 23a, And a frame memory 24a.

CDS21aは、画像センサ13aによって変換されたアナログの画像信号から相関二重サンプリングによってノイズを除去する。AGC22aは、CDS21aによってノイズが除去されたアナログの画像信号の強度を制御する利得制御を行う。ADC23aは、AGC22aによって利得制御されたアナログの画像信号をデジタル形式の撮像画像データに変換する。フレームメモリ24aは、ADC23aによって変換された撮像画像データを記憶する。   The CDS 21a removes noise from the analog image signal converted by the image sensor 13a by correlated double sampling. The AGC 22a performs gain control for controlling the intensity of the analog image signal from which noise has been removed by the CDS 21a. The ADC 23a converts the analog image signal whose gain is controlled by the AGC 22a into captured image data in a digital format. The frame memory 24a stores the captured image data converted by the ADC 23a.

信号変換装置20bは撮像装置10bによって変換されたアナログの画像信号から撮像画像データを取得するものであり、CDS21b、AGC22b、ADC23b、及びフレームメモリ24bを有している。CDS21b、AGC22b、ADC23b、及びフレームメモリ24bはそれぞれCDS21a、AGC22a、ADC23a、及びフレームメモリ24aと同じ構成であるため、それらについての説明は省略する。   The signal conversion device 20b acquires captured image data from an analog image signal converted by the imaging device 10b, and includes a CDS 21b, an AGC 22b, an ADC 23b, and a frame memory 24b. The CDS 21b, AGC 22b, ADC 23b, and frame memory 24b have the same configuration as the CDS 21a, AGC 22a, ADC 23a, and frame memory 24a, respectively, and thus description thereof is omitted.

画像処理装置30は、信号変換装置20a及び信号変換装置20bによって変換された撮像画像データを処理するためのものであり、FPGA(Field Programmable Gate Array)31、CPU(Central Processing Unit)32、ROM(Read Only Memory)33、RAM(Random Access Memory)34を有している。FPGA31は、撮像画像データが表す撮像画像における視差dを算出する処理を行う。CPU32は、画像処理装置30の各機能を制御する。ROM33は、CPU32が画像処理装置30の各機能を制御するために実行する画像処理プログラムを記憶している。RAM34はCPU32のワークエリアとして使用される。   The image processing device 30 is for processing the captured image data converted by the signal conversion device 20a and the signal conversion device 20b. The image processing device 30 is an FPGA (Field Programmable Gate Array) 31, a CPU (Central Processing Unit) 32, and a ROM ( It has a Read Only Memory (33) and a RAM (Random Access Memory) 34. The FPGA 31 performs a process of calculating the parallax d in the captured image represented by the captured image data. The CPU 32 controls each function of the image processing apparatus 30. The ROM 33 stores an image processing program that the CPU 32 executes to control each function of the image processing apparatus 30. The RAM 34 is used as a work area for the CPU 32.

上記画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させてもよい。   The image processing program may be recorded in a computer-readable recording medium and distributed as a file in an installable or executable format.

〔画像処理システム1の機能構成〕
次に、本実施形態の画像処理システム1の機能構成について説明する。図3は、画像処理システム1の機能構成図である。画像処理システム1は、撮像部51、信号変換部52、視差算出部53、距離算出部54、エッジ候補検出部55、白線視差決定部56、走行領域検出部57及びカーブ方向判定部58を有している。
[Functional Configuration of Image Processing System 1]
Next, a functional configuration of the image processing system 1 of the present embodiment will be described. FIG. 3 is a functional configuration diagram of the image processing system 1. The image processing system 1 includes an imaging unit 51, a signal conversion unit 52, a parallax calculation unit 53, a distance calculation unit 54, an edge candidate detection unit 55, a white line parallax determination unit 56, a travel region detection unit 57, and a curve direction determination unit 58. doing.

図4は撮像部51が撮像した撮像画像の一例である。撮像部51は図4(1)に示されるような自動車の進行方向前方の光景を撮像画像として生成するものであり、撮像装置10a及び撮像装置10bによって実現される。信号変換部52は撮像部51によって生成された撮像画像を表すアナログ信号をデジタル形式の撮像画像データに変換するものであり、信号変換装置20a及び信号変換装置20bによって実現される。   FIG. 4 is an example of a captured image captured by the imaging unit 51. The imaging unit 51 generates a scene in front of the traveling direction of the automobile as shown in FIG. 4A as a captured image, and is realized by the imaging device 10a and the imaging device 10b. The signal conversion unit 52 converts an analog signal representing a captured image generated by the imaging unit 51 into digital captured image data, and is realized by the signal conversion device 20a and the signal conversion device 20b.

視差算出部53、距離算出部54、エッジ候補検出部55、白線視差決定部56、走行領域検出部57及びカーブ方向判定部58はROM33に記憶されているプログラムに従ったCPU32によって実現される。   The parallax calculation unit 53, the distance calculation unit 54, the edge candidate detection unit 55, the white line parallax determination unit 56, the travel area detection unit 57, and the curve direction determination unit 58 are realized by the CPU 32 according to a program stored in the ROM 33.

なお、本実施形態の説明においては撮像画像に撮像されている被写体Sの、撮像画像内における位置を表すために、図4(2)に示されるような座標を用いる。図4に示される座標の1単位は一の画素から構成されてもよいし、隣接する二以上の画素群から構成されてもよい。図4(2)に座標(x,y)で示される黒色で塗布された部分は、一または隣接する二以上の画素群から構成される一の小領域Pxyという。以降における各機能部の構成及び動作の説明においては、各機能部は各小領域Pxyに対して処理を行うものとする。また、撮像画像において図4(2)に示されるy座標は、路面に垂直な方向についての画像内の位置を表す情報である。 In the description of the present embodiment, coordinates as shown in FIG. 4B are used to represent the position in the captured image of the subject S captured in the captured image. One unit of coordinates shown in FIG. 4 may be composed of one pixel, or may be composed of two or more adjacent pixel groups. A portion applied in black indicated by coordinates (x, y) in FIG. 4B is referred to as one small region P xy composed of one or two or more adjacent pixel groups. In the following description of the configuration and operation of each functional unit, each functional unit performs processing on each small region P xy . In the captured image, the y coordinate shown in FIG. 4B is information representing the position in the image in the direction perpendicular to the road surface.

<<視差算出部>>
視差算出部53は撮像画像の各小領域Pxyに撮像されている被写体Sの視差dxyを算出する。ここで図5を用いて視差dxyについて説明する。図5は、視差dxyについて説明するための図である。以降の説明では図5で示される撮像装置10a、撮像装置10bによって撮像された撮像画像をそれぞれ基準画像Ia、比較画像Ibという。また、撮像画像における各小領域Pxyの位置は図4(2)に示されるように座標(x,y)(x=1〜1280、y=1〜960)で表されるとする。なお、基準画像Iaにおいて図4(2)に示されるx軸方向を画像の水平方向、y軸方向を画像の鉛直方向という。また、基準画像Iaにおいてx座標が大きくなる方向を右方向、x座標が小さくなる方向を左方向という。また、基準画像Iaにおいてy座標が大きくなる方向を上方向、y座標が小さくなる方向を下方向という。
<< Parallax calculation unit >>
The parallax calculation unit 53 calculates the parallax d xy of the subject S captured in each small area P xy of the captured image. Here, the parallax d xy will be described with reference to FIG. FIG. 5 is a diagram for explaining the parallax d xy . In the following description, the captured images captured by the imaging device 10a and the imaging device 10b shown in FIG. 5 are referred to as a reference image Ia and a comparative image Ib, respectively. Further, the position of each small region P xy in the captured image is represented by coordinates (x, y) (x = 1 to 1280, y = 1 to 960) as shown in FIG. In the reference image Ia, the x-axis direction shown in FIG. 4B is referred to as the horizontal direction of the image, and the y-axis direction is referred to as the vertical direction of the image. In the reference image Ia, the direction in which the x coordinate is increased is referred to as the right direction, and the direction in which the x coordinate is decreased is referred to as the left direction. In the reference image Ia, the direction in which the y coordinate is increased is referred to as an upward direction, and the direction in which the y coordinate is decreased is referred to as a downward direction.

図5で、被写体Sの結像位置Saにおける撮像レンズ11aの結像中心からの距離をΔaとし、被写体Sの結像位置Sbにおける撮像レンズ11bの結像中心からの距離をΔbとした場合、視差dxyはdxy=Δa+Δbである。すなわち、視差dxyとは基準画像Iaにおいて図5に示されるように被写体Sが撮像されている位置の座標(x,y)と、比較画像Ibにおいて被写体Sが撮像されている位置の座標(x’,y)におけるx座標の差(x’−x)である。 In FIG. 5, when the distance from the imaging center of the imaging lens 11a at the imaging position Sa of the subject S is Δa and the distance from the imaging center of the imaging lens 11b at the imaging position Sb of the subject S is Δb, The parallax d xy is d xy = Δa + Δb. That is, the parallax d xy is the coordinates (x, y) of the position where the subject S is imaged as shown in FIG. 5 in the reference image Ia and the coordinates (x, y) of the position where the subject S is imaged in the comparison image Ib. x ′ difference (x′−x) in x ′, y).

視差算出部53は、基準画像Iaにおける所定の小領域群に含まれる小領域Pxyの各座標(x,y)について視差dxyを算出する。なお、座標(x,y)と視差dxyを関連付けた情報を視差画像データという。なお、所定の小領域群とは、基準画像Ia、比較画像Ibの両方の画像に撮像されている被写体Sに係る小領域Pxy以外の小領域Pxyの集合である。たとえば基準画像Iaの左端近傍に撮像されている被写体Sのうち、比較画像Ibの撮像範囲を超えているため比較画像Ibには撮像されていない被写体Sがある。このような被写体Sに係る小領域Pxyについては座標x’を認識することができないため視差dxyを算出できない。このような小領域Pxyは所定の小領域群に含まれないものとする。 The parallax calculation unit 53 calculates the parallax d xy for each coordinate (x, y) of the small area P xy included in the predetermined small area group in the reference image Ia. Information that associates the coordinates (x, y) and the parallax d xy is referred to as parallax image data. The predetermined small area group is a set of small areas P xy other than the small area P xy related to the subject S captured in both the reference image Ia and the comparative image Ib. For example, among the subjects S captured near the left end of the reference image Ia, there are subjects S that are not captured in the comparative image Ib because they exceed the imaging range of the comparative image Ib. For such a small region P xy related to the subject S, the coordinate x ′ cannot be recognized, and the parallax d xy cannot be calculated. Such a small area P xy is not included in a predetermined small area group.

<<距離算出部>>
距離算出部54は、視差算出部53によって算出された視差dxyを用いて、距離Zを算出する。距離Zとは撮像レンズ11aの中心と撮像レンズ11bの中心を含み、撮像レンズ11a及び撮像レンズ11bの撮像面に平行な面から被写体Sまでの距離である。具体的には、図5に示されるように撮像レンズ11a及び撮像レンズ11bの焦点距離f、撮像レンズ11aの中心と撮像レンズ11bの中心との間の長さである基線長B、及び視差dを用いて、距離算出部54が距離Z=(B×f)/dと算出する。なお、基線長B、焦点距離fは一例としてそれぞれ5〜30(cm)、4〜15(mm)とすればよい。
<< Distance calculation section >>
The distance calculation unit 54 calculates the distance Z using the parallax d xy calculated by the parallax calculation unit 53. The distance Z is a distance from the surface parallel to the imaging surfaces of the imaging lens 11a and the imaging lens 11b to the subject S including the center of the imaging lens 11a and the center of the imaging lens 11b. Specifically, as shown in FIG. 5, the focal length f of the imaging lens 11a and the imaging lens 11b, the baseline length B that is the length between the center of the imaging lens 11a and the center of the imaging lens 11b, and the parallax d , The distance calculation unit 54 calculates the distance Z = (B × f) / d. The baseline length B and the focal length f may be 5 to 30 (cm) and 4 to 15 (mm), respectively, as an example.

ここで、距離Zと視差dの関係について更に説明する。Z=(B×f)/dの計算式より、視差dが大きいほど距離Zは小さく、視差dが小さいほど距離Zは大きい。たとえば、図4(2)での座標(k、l)における視差dklは座標(j,l)における視差djlより大きい値であるとすれば、座標(k,l)における距離Zklは座標(j,l)における距離Zjlより小さい値となる。 Here, the relationship between the distance Z and the parallax d will be further described. From the calculation formula of Z = (B × f) / d, the larger the parallax d, the smaller the distance Z, and the smaller the parallax d, the larger the distance Z. For example, if the parallax d kl at the coordinates (k, l) in FIG. 4 (2) is larger than the parallax d jl at the coordinates (j, l), the distance Z kl at the coordinates (k, l) is The value is smaller than the distance Z jl at the coordinates (j, l).

すなわち、座標(k,l)にある被写体(図4(2)においては自動車)は、座標(j,l)にある被写体(図4(2)においては白線)より近くにあると判定される。このようにして、各小領域Pxyにおける視差dxyを、白線が撮像されている画像内の小領域(白線領域Pという。)における視差dと比較することによって、各小領域Pxyが路面を表すものか否かを判定することが可能となる。 That is, it is determined that the subject at the coordinates (k, l) (the car in FIG. 4 (2)) is closer to the subject at the coordinates (j, l) (white line in FIG. 4 (2)). . In this manner, the parallax d xy in each small region P xy, by comparing the parallax d w in the small area in the image white line is captured (. As white regions P w), each small area P xy It is possible to determine whether or not represents a road surface.

<<エッジ候補検出部>>
エッジ候補検出部55は、基準画像Iaに撮像されている路面上の白線のエッジ(以降、白線エッジという)を表す小領域Pxyの候補(以降、白線エッジ候補領域Pという)を検出する。ここで、白線とは、一般の路面において描かれている白線を表す画像の部分である。すなわち、本実施形態における白線とは、一次元の線ではなくx軸方向に幅をもった帯状の部分をいう。
<< Edge candidate detection unit >>
Edge candidate detection unit 55, the white line of the edge on the road surface being imaged on the reference image Ia (hereinafter referred white line edge) small regions P xy candidate representing a (hereinafter, referred to as the white line edge candidate region P e) detecting the . Here, the white line is a part of an image representing a white line drawn on a general road surface. That is, the white line in the present embodiment is not a one-dimensional line but a band-like portion having a width in the x-axis direction.

図6を用いてエッジ候補検出部55の機能について説明する。図6は基準画像Iaの一部を拡大した図である。図6(1)は図4(1)の一部である部分Aを拡大して表しているものであり、白色で表される部分は基準画像Iaにおける白線の一部を表し、斜線で表される部分は基準画像Iaにおける白線以外の路面の一部を表している。   The function of the edge candidate detection unit 55 will be described with reference to FIG. FIG. 6 is an enlarged view of a part of the reference image Ia. FIG. 6A is an enlarged view of a portion A which is a part of FIG. 4A, and a portion represented in white represents a part of a white line in the reference image Ia and is represented by a diagonal line. The portion to be represented represents a part of the road surface other than the white line in the reference image Ia.

図6(2)は図6(1)に表される撮像画像の各小領域Pxyを構成する画素の輝度Lを表す図である。図6(2)に示されるように白線の一部を形成する小領域Pxyの画素の輝度は、白線以外の路面の一部を形成する小領域Pxyの画素の輝度より高くなっている。図6(3)は図6(2)で表されている各小領域Pxyを構成する画素の輝度差ΔLを表す図である。なお、本実施形態において輝度Lは0から255の値をとるものとして説明する。 FIG. 6B is a diagram illustrating the luminance L of the pixels constituting each small area P xy of the captured image illustrated in FIG. As shown in FIG. 6B, the luminance of the pixels in the small area P xy that forms part of the white line is higher than the luminance of the pixels in the small area P xy that forms part of the road surface other than the white line. . FIG. 6 (3) is a diagram showing the luminance difference ΔL of the pixels constituting each small region P xy shown in FIG. 6 (2). In the present embodiment, the description will be made assuming that the luminance L takes a value from 0 to 255.

エッジ候補検出部55は図6(2)に示されるような基準画像Iaを構成する各小領域Pxyについてx軸方向に隣接する二つの小領域Pxyの輝度Lの差(以降、輝度差ΔLという)を算出する。具体的には、エッジ候補検出部55は座標(x,y)にある小領域Pxyの輝度L(x,y)から座標(x+1,y)にある小領域Pxyの輝度L(x+1,y)を減算した輝度差ΔL(x,y)=L(x,y)−L(x+1,y)を算出する。 The edge candidate detection unit 55 determines a difference in luminance L between two small regions P xy adjacent to each other in the x-axis direction for each small region P xy constituting the reference image Ia as shown in FIG. ΔL) is calculated. Specifically, the edge candidate detection unit 55 converts the luminance L (x + 1, y) of the small area P xy at the coordinates (x + 1, y) from the luminance L (x, y) of the small area P xy at the coordinates (x, y). The luminance difference ΔL (x, y) = L (x, y) −L (x + 1, y) obtained by subtracting y) is calculated.

このようにして算出された輝度差ΔL(x,y)が図6(3)に示されており、白線のエッジ部分を表す小領域P(図6(3)におけるPで示される小領域)における輝度差ΔL(x,y)はその他の部分に比べ大きくなる。 In this way, the calculated luminance difference [Delta] L (x, y) small is shown in FIG. 6 (3), represented by P e in the small region P e representing the edge portion of the white line (Fig. 6 (3) The luminance difference ΔL (x, y) in the region is larger than that in other portions.

エッジ候補検出部55は算出された輝度差ΔL(x,y)が所定の閾値、たとえば120以上であるか否かを判定する。そして、エッジ候補検出部55は輝度差ΔL(x,y)が120以上と判定した場合には、その座標(x,y)における小領域Pxyを白線エッジ候補領域Pとして検出する。 The edge candidate detection unit 55 determines whether or not the calculated luminance difference ΔL (x, y) is a predetermined threshold, for example, 120 or more. Then, the edge candidate detection unit 55 when the luminance difference [Delta] L (x, y) is determined as 120 or more, detects the small region P xy at the coordinates (x, y) as a white line edge candidate area P e.

なお、小領域Pxyが2以上の画素からなる場合、エッジ候補検出部55は、小領域Pxyの輝度Lとはその小領域Pxyを構成する画素群の輝度Lの平均値とすればよい。また、エッジ候補検出部55は、各画素について隣接する画素との輝度差ΔLを算出し輝度差ΔLが120以上であると判定された画素を含む小領域Pxyを白線エッジ候補領域Pとして検出してもよい。 In the case where small region P xy is composed of two or more pixels, the edge candidate detection unit 55, if the small area P xy luminance L and the average value of the luminance L of the pixel group making up the small region P xy Good. Further, the edge candidate detection unit 55 calculates a luminance difference ΔL with respect to an adjacent pixel for each pixel, and uses the small region P xy including the pixel determined to have a luminance difference ΔL of 120 or more as the white line edge candidate region Pe. It may be detected.

なお、エッジ候補検出部55は、基準画像Iaのy座標一定の小領域Pxy群において、中央の小領域Pxy(図4(2)においてx=640に位置する小領域)から左端の小領域Pxyに向けて順に上記の算出及び判定を行う。また、エッジ候補検出部55は左側の白線エッジ候補領域Pelが検出された時点で該y座標に係る小領域Pxy群についての算出及び判定の処理を終了する。したがって、図6(3)に示される図において、輝度差ΔL(x,y)が120以上である小領域Pxyより左側に位置する小領域Pxyについての輝度差ΔL(x,y)は算出されない。 In addition, the edge candidate detection unit 55 in the small region P xy group having a constant y coordinate of the reference image Ia has a small left end from the central small region P xy (the small region located at x = 640 in FIG. 4 (2)). The above calculation and determination are sequentially performed toward the region P xy . Further, the edge candidate detection unit 55 ends the calculation and determination processing for the small region P xy group related to the y coordinate when the left white line edge candidate region P el is detected. Therefore, in the diagram shown in FIG. 6 (3), the luminance difference ΔL (x, y) for the small region P xy located on the left side of the small region P xy having the luminance difference ΔL (x, y) of 120 or more is Not calculated.

同様に、エッジ候補検出部55は、基準画像Iaのy座標一定の小領域Pxy群における中央の小領域Pxy(図4(2)においてx=640に位置する小領域)から右端の小領域Pxyに向けて順に上記の算出及び判定を行う。また、エッジ候補検出部55は右側の白線エッジ候補領域Perを検出する。 Similarly, the edge candidate detection unit 55 has a small right end from the central small region P xy (the small region located at x = 640 in FIG. 4 (2)) in the small region P xy group having a constant y coordinate of the reference image Ia. The above calculation and determination are sequentially performed toward the region P xy . Further, the edge candidate detection unit 55 detects the right white line edge candidate region Per .

<<白線視差決定部>>
白線視差決定部56はエッジ候補検出部55によって決定された白線エッジ候補領域Pに基づいて、白線領域Pの視差である白線視差dを決定する。図3に示されるように白線視差決定部56は回帰直線算出部561及び決定部562を有する。
<< White Line Parallax Determination Unit >>
White disparity determination unit 56 based on the white line edge candidate area P e which is determined by the edge candidate detection unit 55, determines a white line disparity d w is the disparity of the white line area P w. As shown in FIG. 3, the white line parallax determination unit 56 includes a regression line calculation unit 561 and a determination unit 562.

<回帰直線算出部>
回帰直線算出部561はエッジ候補検出部55によって検出された白線エッジ候補領域Pのy座標と視差dの回帰直線を算出する。ここで、回帰直線算出部561の機能について図7を用いて説明する。図7は白線エッジ候補領域Pの位置を表すy座標とその位置における視差dの対応関係を表す図である。図7においては縦軸にy座標、横軸に視差dが示され、白線エッジ候補領域P群の各y座標と、対応する視差dが点で表されている。これらの点に対して、回帰直線算出部561は公知の回帰直線算出方法であるHough変換によって回帰直線Reg−Lineを算出する。
<Regression line calculation unit>
Regression line calculation section 561 calculates a regression line of y-coordinate and the parallax d e of the white line edge candidate region P e detected by the edge candidate detection unit 55. Here, the function of the regression line calculation unit 561 will be described with reference to FIG. Figure 7 is a diagram showing a correspondence relationship between the parallax d e in the y-coordinate and its position representative of the position of the white line edge candidate region P e. Y-coordinate on the vertical axis in FIG. 7, the parallax d e is shown on the horizontal axis, and the y-coordinate of the white line edge candidate area P e group, corresponding disparity d e is represented by dots. For these points, the regression line calculation unit 561 calculates a regression line Reg-Line by Hough transformation, which is a known regression line calculation method.

<決定部>
決定部562は回帰直線Reg−Line上にある視差dを白線領域Pにおける視差である白線視差dとして決定する。
<Determining part>
Determination unit 562 determines the disparity d e in the regression line Reg-Line as white disparity d w is the disparity in the white line area P w.

<<走行領域検出部>>
走行領域検出部57は、基準画像Iaを形成する小領域Pxyから走行領域を検出する。基準画像Iaに建物、ガードレール、壁等(以降、建物等という)が撮像されている小領域を物体領域Pとしたとき、走行領域とは左側の物体領域Pblと右側の物体領域Pbrの間にある小領域群である。走行領域検出部57は、度数算出部571、度数判定部572、検出部573を有している。
<< Running area detection unit >>
The travel area detection unit 57 detects the travel area from the small area P xy that forms the reference image Ia. Buildings in the reference image Ia, guard rail, a wall or the like (hereinafter, referred to as a building, etc.) When is a small region being imaged and object region P b, the left side of the object region P bl and right object region P br the running region Is a small region group between the two. The travel region detection unit 57 includes a frequency calculation unit 571, a frequency determination unit 572, and a detection unit 573.

<度数算出部>
度数算出部571は、視差算出部53が算出した視差dxyの度数Cを算出する。度数Cとは、基準画像Iaにおいて座標xで表される小領域Pxyのうち視差dxyが所定の値である小領域Pxyの数である。
<Frequency calculator>
The frequency calculation unit 571 calculates the frequency C of the parallax d xy calculated by the parallax calculation unit 53. The degree C, the disparity d xy among the small regions P xy represented in the reference image Ia by the coordinate x is the number of small regions P xy which is a predetermined value.

ここで、度数算出部571が度数Cを算出する機能について図8及び図9を用いて具体例によって説明する。図8は基準画像Iaから度数Cを算出するために用いる図であり、図9は基準画像Iaにおける度数Cの分布を表す度数分布図である。図8(1)は図4(1)に示される基準画像Iaについて各小領域Pxyの位置を表す座標を示している。この具体例においては、説明を容易にするために小領域Pxyを図4(2)に示される例より大きく設定しているが、この小領域Pxyの大きさは適宜設定すればよい。 Here, the function in which the frequency calculation unit 571 calculates the frequency C will be described using a specific example with reference to FIGS. 8 and 9. FIG. 8 is a diagram used for calculating the frequency C from the reference image Ia, and FIG. 9 is a frequency distribution diagram showing the distribution of the frequency C in the reference image Ia. FIG. 8A shows coordinates representing the position of each small region P xy with respect to the reference image Ia shown in FIG. In this specific example, the small area P xy is set larger than the example shown in FIG. 4B for easy explanation, but the size of the small area P xy may be set as appropriate.

図8(2)は図8(1)に示される基準画像Iaの一部の小領域Pxyについてその視差dxyを表した図である。例えば図8(1)に示される座標(3,1)乃至座標(3,4)の小領域Pxyについては被写体Sが路面であって高さが同一であるため、図8(2)では座標(3,1)乃至座標(3,4)の小領域Pxyについてy座標が大きくなるに伴い撮像装置10a、10bからの距離Zが大きくなる。よって、基線長Bと焦点距離fが一定の下で先に説明したZ=(B×f)/dの式より、視差dxyが小さくなっていることが表されている。また、座標(3,5)乃至座標(3,10)の小領域Pxyについては被写体Sが建物の壁であるため、y座標が大きくなっても撮像装置10a、10bからの距離Zは同一であるのでその視差dxyはほぼ同じであることが表されている。さらに、座標(3,11)及び座標(3,12)については被写体Sが空であるため距離Zは無限大に近似されるので視差dxyはほぼ0であることが表されている。図9は図8(2)に示される座標xを横軸に、視差dxyを縦軸にし、座標xにある小領域Pxyのうち視差dxyの度数Cを表している図である。 FIG. 8B is a diagram showing the parallax d xy for a part of the small area P xy of the reference image Ia shown in FIG. For example, in the small area P xy of the coordinates (3, 1) to the coordinates (3, 4) shown in FIG. 8 (1), the subject S is the road surface and has the same height. The distance Z from the imaging devices 10a and 10b increases as the y coordinate increases for the small region P xy of the coordinates (3, 1) to the coordinates (3, 4). Therefore, it is shown that the parallax d xy is smaller than the equation of Z = (B × f) / d described above with the base line length B and the focal length f being constant. In addition, since the subject S is a building wall in the small area P xy of the coordinates (3, 5) to the coordinates (3, 10), the distance Z from the imaging devices 10a and 10b is the same even if the y coordinate increases. Therefore, it is indicated that the parallax d xy is almost the same. Further, regarding the coordinates (3, 11) and the coordinates (3, 12), since the subject S is empty, the distance Z is approximated to infinity, so that the parallax d xy is almost zero. FIG. 9 is a diagram showing the frequency C of the parallax d xy in the small region P xy at the coordinate x with the coordinate x shown in FIG. 8 (2) on the horizontal axis and the parallax d xy on the vertical axis.

図8(1)に示される基準画像Iaについて、度数算出部571が度数Cを算出すると、図8(2)に示されるようにx=3である小領域Pxyのうち、視差dxyが100であるものは6つある(図8(2)のW1を参照)。したがって、度数算出部571は図9に示される度数分布図上の(x,dxy)=(3,100)に対応して度数C「6」を表している。同様にして、x=3である小領域Pxyのうち、視差dxyが120、115、110、105のものはそれぞれ1つずつあるため、度数算出部571は度数分布図の(x,dxy)=(3,120)、(3,115)、(3,110)、(3,105)に対応して度数C「1」を表している。 When the frequency calculation unit 571 calculates the frequency C for the reference image Ia illustrated in FIG. 8A, the parallax d xy is included in the small area P xy where x = 3 as illustrated in FIG. 8B. There are six that are 100 (see W1 in FIG. 8 (2)). Therefore, the frequency calculation unit 571 represents the frequency C “6” corresponding to (x, d xy ) = (3, 100) on the frequency distribution diagram shown in FIG. Similarly, since there is one each of parallax d xy of 120, 115, 110, and 105 among the small regions P xy with x = 3, the frequency calculation unit 571 has (x, d xy ) = (3,120), (3,115), (3,110), and (3,105), the frequency C “1” is represented.

同様にして図8(2)に示されるようにx=4である小領域Pxyのうち、視差dxyが95であるものは5つある(図8(2)のW2を参照)ため、度数算出部571は度数Cを「5」と算出する。したがって、度数算出部571は図9に示される度数分布図上の(x,dxy)=(4,95)に対応して度数C「5」を表している。また、図8(2)に示されるようにx=15である小領域Pxyのうち視差dxyが80であるものは5つ(図8(2)のW3を参照)あるため、度数算出部571は度数Cを「5」と算出する。したがって、度数算出部571は度数分布図上の(x,dxy)=(15,80)に対応して度数C「5」を表している。このようにして、度数算出部571は所定の小領域群に含まれる小領域Pxyのx座標について度数Cを算出する。 Similarly, as shown in FIG. 8 (2), among the small regions P xy with x = 4, there are five that have parallax d xy of 95 (see W2 in FIG. 8 (2)). The frequency calculation unit 571 calculates the frequency C as “5”. Therefore, the frequency calculation unit 571 represents the frequency C “5” corresponding to (x, d xy ) = (4, 95) on the frequency distribution diagram shown in FIG. 9. Further, as shown in FIG. 8 (2), since there are five small areas P xy with x = 15 and the parallax d xy is 80 (see W3 in FIG. 8 (2)), the frequency calculation is performed. The unit 571 calculates the frequency C as “5”. Therefore, the frequency calculation unit 571 represents the frequency C “5” corresponding to (x, d xy ) = (15, 80) on the frequency distribution diagram. In this way, the frequency calculation unit 571 calculates the frequency C for the x coordinate of the small area P xy included in the predetermined small area group.

<度数判定部>
度数判定部572は度数算出部571によって算出された度数Cが所定の閾値Cp以上であるか否かを判定する。具体的には、度数判定部572はエッジ候補検出部55によって検出された左白線エッジ候補領域Pelを横軸にx座標、縦軸に視差dxyを表した度数分布図上に表示する。そして、所定の視差dxy未満に表示された左白線エッジ候補領域を直線近似し、近似直線(図9におけるlineL3を参照)を算出する。また、所定の視差dxy未満(本実施例では所定の視差dxy=100とする)に表示された左白線エッジ候補領域を曲線近似し、近似曲線(図9におけるlineL4を参照)を算出する。
<Frequency determination unit>
The frequency determination unit 572 determines whether the frequency C calculated by the frequency calculation unit 571 is greater than or equal to a predetermined threshold Cp. Specifically, the frequency determining unit 572 displays the left white line edge candidate region P el detected by the edge candidate detection unit 55 x coordinate on the horizontal axis, the frequency distribution diagram showing the parallax d xy on the vertical axis. Then, the left white line edge candidate region displayed below the predetermined parallax d xy is linearly approximated to calculate an approximate straight line (see line L3 in FIG. 9). Further, the left white line edge candidate region displayed below the predetermined parallax d xy (predetermined parallax d xy = 100 in the present embodiment) is approximated by a curve to calculate an approximate curve (see line L4 in FIG. 9). .

図8及び図9に示される例によってこの機能を説明する。たとえば、エッジ候補検出部55によって座標(3,2)で表される小領域Pxyが左白線エッジ候補領域Pelであると検出されている。図8(2)に示されるように座標(3,2)で表される小領域Pxyの視差dxy=115であるから、度数判定部572は度数分布図の座標x=3、dxy=115に左白線エッジ候補領域Pelである旨を表示する(図9の(v)参照)。 This function will be described with reference to the examples shown in FIGS. For example, the small area P xy represented by the coordinates (3, 2) is detected by the edge candidate detecting unit 55 as the left white line edge candidate area P el . As shown in FIG. 8 (2), since the parallax d xy = 115 of the small region P xy represented by the coordinates (3,2), the frequency determination unit 572 has coordinates x = 3 and d xy of the frequency distribution diagram. = 115 is displayed indicating that it is the left white line edge candidate area Pel (see (v) of FIG. 9).

同様に、エッジ候補検出部55によって座標(4,3)で表される小領域Pxyが左白線エッジ候補領域Pelであると検出されている。図8(2)に示されるように座標(4,3)で表される小領域Pxyの視差dxy=110であるから、度数判定部572は度数分布図の座標x=4、dxy=110に左白線エッジ候補領域Pelである旨を表示する(図9(vi)印参照)。 Similarly, the small area P xy represented by the coordinates (4, 3) is detected by the edge candidate detection unit 55 as the left white line edge candidate area Pel . As shown in FIG. 8B, since the parallax d xy of the small region P xy represented by the coordinates (4, 3) is 110, the frequency determination unit 572 has coordinates x = 4 and d xy of the frequency distribution diagram. = 110 is displayed indicating that it is the left white line edge candidate region Pel (see the mark (vi) in FIG. 9).

同様にして全ての左白線エッジ候補領域を度数分布図に表示し、その近似直線を算出したものが図9に示されるlineL3となる。   Similarly, all the left white line edge candidate areas are displayed in the frequency distribution diagram, and the approximate straight line is calculated as line L3 shown in FIG.

同様にして、度数判定部572はエッジ候補検出部55によって検出された右白線エッジ候補領域Perを横軸にx座標、縦軸に視差dxyを表した度数分布図上に表示する。そして、所定の視差dxy未満に表示された左白線エッジ候補領域を直線近似し、近似直線lineR3を算出する。また、所定の視差dxy未満に表示された左白線エッジ候補領域を曲線近似し、近似曲線lineR4を算出する。 Similarly, the frequency determination unit 572 displays the right white line edge candidate region Per detected by the edge candidate detection unit 55 on a frequency distribution diagram in which the horizontal axis represents the x coordinate and the vertical axis represents the parallax d xy . Then, the left white line edge candidate area displayed below the predetermined parallax d xy is linearly approximated to calculate an approximate straight line R3. Further, the approximated line lineR4 is calculated by approximating the left white line edge candidate area displayed below the predetermined parallax d xy with a curve.

さらに、度数判定部572は近似直線lineL3と近似直線lineR3における同一のy座標にあたる小領域の中間にある小領域を近似した直線(以降、二等分線lineh3という)を算出する。また、度数判定部572は近似直線lineL4と近似直線lineR4における同一のy座標にあたる小領域の中間にある小領域を近似した直線(以降、二等分線lineh4という)を算出する。さらに、二等分線lineh3及び二等分線lineh4を含む線linehを表す数式(x=f(dxy)とする。)を算出する。 Further, the frequency determination unit 572 calculates a straight line (hereinafter referred to as a bisector lineh3) that approximates a small area that is in the middle of the small areas corresponding to the same y coordinate in the approximate straight line lineL3 and the approximate straight line lineR3. Further, the frequency determination unit 572 calculates a straight line (hereinafter referred to as a bisector lineh4) that approximates a small area that is in the middle of the small area corresponding to the same y coordinate in the approximate straight line L4 and the approximate straight line R4. Further, a mathematical expression (x = f (d xy )) representing the line lineh including the bisector lineh3 and the bisector lineh4 is calculated.

この線分linehにあたる度数分布図上の座標(f(d),d)から度数分布図の端部の座標(1,dxy)及び座標(xmax,dxy)に向かって順に各座標(x,dxy)に対応する度数Cが所定の閾値Cp以上であるか否かを判定する。ここで、xmaxは基準画像Ia及び度数分布図におけるx座標の最大値であり、図9に示される具体例においてはxmax=16である。 From the coordinates (f (d), d) on the frequency distribution map corresponding to the line segment lineh, the coordinates (1, d xy ) and the coordinates (x max , d xy ) of the end of the frequency distribution chart are sequentially displayed. It is determined whether the frequency C corresponding to x, d xy ) is equal to or greater than a predetermined threshold Cp. Here, x max is the maximum value of the x coordinate in the reference image Ia and the frequency distribution diagram, and in the specific example shown in FIG. 9, x max = 16.

度数判定部572によってC≧Cpであると判定された場合、度数判定部572は度数分布図における座標(x,dxy)に対応する基準画像Ia上の小領域Pxyは建物等を表すものとされる。また、度数判定部572によってC≧Cpでないと判定された場合、度数判定部572は度数分布図における座標(x,d)に対応する基準画像Ia上は建物等を表すものでないとされる。 When it is determined by the frequency determination unit 572 that C ≧ Cp, the frequency determination unit 572 indicates that the small area P xy on the reference image Ia corresponding to the coordinates (x, d xy ) in the frequency distribution diagram represents a building or the like It is said. When the frequency determination unit 572 determines that C ≧ Cp is not satisfied, the frequency determination unit 572 does not represent a building or the like on the reference image Ia corresponding to the coordinates (x, d) in the frequency distribution diagram.

<検出部>
検出部573は度数判定部572による判定に基づいて、基準画像Iaに撮像されている各小領域Pxyのうち走行領域を検出する。先に説明したように被写体Sが建物等である小領域Pxyの度数Cは被写体Sが路面である小領域Pxyの度数Cより大きい。すなわち、度数Cが所定の閾値Cp以上である場合にはその度数Cに係る小領域Pxyは建物等であるため、基準画像Ia内において該小領域Pxyを物体領域Pとして検出する。検出部573は基準画像Iaに撮像されている左側の物体領域Pblおよび右側の物体領域Pbrを検出し、これらの間にある小領域Pxyを走行領域として検出する。
<Detector>
Based on the determination by the frequency determination unit 572, the detection unit 573 detects a travel region from among the small regions P xy captured in the reference image Ia. As described above, the frequency C of the small area P xy where the subject S is a building or the like is larger than the frequency C of the small area P xy where the subject S is a road surface. That is, when the frequency C is equal to or greater than the predetermined threshold Cp, the small region P xy related to the frequency C is a building or the like, and thus the small region P xy is detected as the object region P b in the reference image Ia. Detector 573 detects the object area P bl and right object region P br left imaged in the reference image Ia, detects the small region P xy which lies between these as the travel area.

<<カーブ方向判定部>>
カーブ方向判定部58は、基準画像Iaに撮像されている路面が右の方向へカーブしているか、左の方向へカーブしているかを判定する。カーブ方向判定部58は直線交点検出部581、消失点検出部582及び判定部583を有している。
<< Curve direction determination unit >>
The curve direction determination unit 58 determines whether the road surface imaged in the reference image Ia is curved in the right direction or curved in the left direction. The curve direction determination unit 58 includes a straight intersection detection unit 581, a vanishing point detection unit 582, and a determination unit 583.

一般的にカーブしている路面が撮像された基準画像Iaにおいては、図4(2)に示されるように撮像装置10からみて手前の部分、すなわち所定のy≦yの部分の白線は直線(以降、直線部分という)をなしている。また、そのような基準画像Iaにおいては、撮像装置10からみて奥の部分、すなわち所定のy>yの部分の白線は曲線(以降、曲線部分という)をなしている。 In the reference image Ia in which a curved road surface is generally imaged, as shown in FIG. 4 (2), the white line in the front portion as viewed from the imaging device 10, that is, the predetermined y ≦ y S portion is a straight line. (Hereinafter referred to as a straight line portion). Further, in such standard image Ia, the back portion Te imaging apparatus 10 viewed from, ie white line portion of a given y> y S is curvilinear (hereinafter, referred to as curved portion).

<直線交点検出部>
直線交点検出部581はy≦yの左側の白線エッジ候補領域Pel、右側の白線エッジ候補領域Perのそれぞれの近似直線の交点Pを検出する。具体的には、直線交点検出部581は図4(2)の点で表される左側の白線エッジ候補領域Pelを直線近似し、近似直線lineL1を算出する。同様にして、直線交点検出部581は図4(2)の点で表される右側の白線エッジ候補領域Perを直線近似し、近似直線lineR1を算出する。さらに、直線交点検出部581は近似直線lineL1と近似直線lineR1との交点となる小領域を表す座標(x、y)を算出し、直線交点Pとして検出する。
<Linear intersection detection unit>
Straight intersection point detection unit 581 detects the y ≦ y left white line edge candidate region P el of S, the intersection P i of the respective approximate lines of the right white line edge candidate area P er. Specifically, straight intersection point detection unit 581 linearly approximates the left white line edge candidate area P el expressed in terms of FIG. 4 (2), and calculates an approximate straight line LineL1. Similarly, the linear intersection point detection unit 581 is a linear approximation the right white line edge candidate area P er represented in terms of FIG. 4 (2), and calculates an approximate straight line LineR1. Further, the linear intersection detection unit 581 calculates coordinates (x i , y i ) representing a small area that is an intersection of the approximate straight line L1 and the approximate straight line R1 and detects it as a straight intersection P i .

<消失点検出部>
消失点検出部582は所定のy>yの左側の白線エッジ候補領域Pelに係る近似曲線lineL2と、右側の白線エッジ候補領域Perに係る近似曲線lineR2との交点となる小領域を表す座標(x、y)を算出し、その交点を消失点Pとして検出する。なお、消失点検出部582は消失点検出手段の一例である。
<Vanishing point detector>
Vanishing point detecting unit 582 represents the approximate curve lineL2 according to the left of the white line edge candidate region P el predetermined y> y S, the intersection become small area between the approximate curve lineR2 according to the right of the white line edge candidate region P er The coordinates (x v , y v ) are calculated, and the intersection is detected as the vanishing point P v . The vanishing point detection unit 582 is an example of a vanishing point detection unit.

<判定部>
判定部583は、消失点検出部582によって検出された消失点P及び直線交点検出部581によって検出された交点Pに基づいて路面がカーブしている方向を判定する。具体的には、判定部583は消失点Pのx座標xが交点Pのx座標xより小さいか、大きいか、またはxと同一であるかを比較する。
<Determining unit>
The determination unit 583 determines the direction in which the road surface is curved based on the vanishing point P v detected by the vanishing point detection unit 582 and the intersection P i detected by the linear intersection detection unit 581. Specifically, the determination unit 583 compares whether the x-coordinate x v of the vanishing point P v is the x-coordinate x i is smaller than the intersection P i, is identical to the greater or x i.

この比較によってx>xであった場合は、カーブ方向判定部58は路面が右にカーブしていると判定する。また、x<xであった場合は、カーブ方向判定部58は路面が左にカーブしていると判定する。また、x=xであると判定された場合には、カーブ方向判定部58は路面がカーブしていないと判定する。 If x v > x i by this comparison, the curve direction determination unit 58 determines that the road surface is curved to the right. If x v <x i , the curve direction determination unit 58 determines that the road surface is curved to the left. Further, when it is determined that x v = x i, the curve direction determination unit 58 determines that the road surface is not curved.

なお、白線は境界の一例であり、白線領域Pは境界領域の一例であり、エッジ候補検出部55は境界領域検出手段の一例である。視差算出部53は、視差算出手段の一例である。走行領域検出部57は走行領域検出手段の一例である。度数算出部571は度数算出手段の一例である。度数判定部572は度数判定手段の一例である。 The white line is an example of a boundary, the white line region Pw is an example of a boundary region, and the edge candidate detection unit 55 is an example of a boundary region detection unit. The parallax calculation unit 53 is an example of a parallax calculation unit. The travel area detection unit 57 is an example of a travel area detection unit. The frequency calculation unit 571 is an example of a frequency calculation unit. The frequency determination unit 572 is an example of a frequency determination unit.

〔画像処理システム1の動作〕
続いて、図10乃至図21を用いて、本実施形態に係る画像処理システム1の動作について説明する。なお、図10は、画像処理システム1の処理の概要を表すフロー図である。図11は、信号変換部52の処理を表すフロー図である。図12は、エッジ候補検出部55の第一の処理を表すフロー図である。図13は、エッジ候補検出部55の第二の処理の概要を説明するためのフロー図である。図14は、エッジ候補検出部55の第二の処理の詳細を表すフロー図である。図15は、基準画像Iaの一部Aを拡大した図である。図16は、カーブ方向判定部58の処理を表すフロー図である。図17は、直線交点検出部581の処理を表すフロー図である。図18は、消失点検出部582の処理を表すフロー図である。図19は、白線視差決定部56の処理を表すフロー図である。図20は、走行領域検出部57の処理を表すフロー図である。図21は、度数判定部572の処理を表すフロー図である。
[Operation of Image Processing System 1]
Subsequently, the operation of the image processing system 1 according to the present embodiment will be described with reference to FIGS. 10 to 21. FIG. 10 is a flowchart showing an outline of processing of the image processing system 1. FIG. 11 is a flowchart showing the processing of the signal conversion unit 52. FIG. 12 is a flowchart showing the first process of the edge candidate detection unit 55. FIG. 13 is a flowchart for explaining the outline of the second process of the edge candidate detection unit 55. FIG. 14 is a flowchart showing details of the second processing of the edge candidate detection unit 55. FIG. 15 is an enlarged view of a part A of the reference image Ia. FIG. 16 is a flowchart showing the processing of the curve direction determination unit 58. FIG. 17 is a flowchart showing the processing of the straight intersection detection unit 581. FIG. 18 is a flowchart showing the processing of the vanishing point detection unit 582. FIG. 19 is a flowchart showing the processing of the white line parallax determination unit 56. FIG. 20 is a flowchart showing the processing of the travel area detection unit 57. FIG. 21 is a flowchart showing the processing of the frequency determination unit 572.

<<撮像画像の生成処理>>
図10に示されるように、まず、撮像部51が自動車の進行方向前方の光景を撮像して所定の時間間隔で撮像画像を生成する(ステップS1)。具体的には、撮像部51を実現する撮像レンズ11aが通過する光を屈折させ、絞り12aが撮像レンズ11aを通過した光の一部を遮ることによって光の量を調整する。そして、撮像レンズ11aから入力された光が結像され、画像センサ13aは結像された像を電気的なアナログの画像信号に変換する。また、撮像レンズ11b、絞り12b、画像センサ13bもそれぞれ撮像レンズ11a、絞り12a、画像センサ13aと同様に動作する。
<< Captured Image Generation Processing >>
As shown in FIG. 10, first, the imaging unit 51 captures a scene in front of the vehicle in the traveling direction and generates captured images at predetermined time intervals (step S1). Specifically, the amount of light is adjusted by refracting the light passing through the imaging lens 11a that realizes the imaging unit 51 and blocking a part of the light that the diaphragm 12a has passed through the imaging lens 11a. The light input from the imaging lens 11a is imaged, and the image sensor 13a converts the imaged image into an electrical analog image signal. The imaging lens 11b, the diaphragm 12b, and the image sensor 13b operate in the same manner as the imaging lens 11a, the diaphragm 12a, and the image sensor 13a, respectively.

<<信号変換をする処理>>
続いて、信号変換部52がアナログの画像信号をデジタル形式の撮像画像データに変換する(ステップS2)。具体的には、図11に示されるように、まずCDS21aがアナログの画像信号を相関二重サンプリングしてノイズを除去する(ステップS21)。そして、AGC22aが、ノイズが除去されたアナログの画像信号の強度を制御する利得制御を行う(ステップS22)。AGC22aによってアナログの画像信号が利得制御されると、ADC23aがアナログの画像信号をデジタル形式の撮像画像データに変換する(ステップS23)。ADC23aがアナログの画像信号を撮像画像データに変換すると、フレームメモリ24aは撮像画像データを記憶する。また、CDS21b、AGC22b、ADC23bもそれぞれCDS21a、AGC22a、ADC23aと同様に動作する。
<< Process for signal conversion >>
Subsequently, the signal converter 52 converts the analog image signal into digital captured image data (step S2). Specifically, as shown in FIG. 11, the CDS 21a first performs correlated double sampling on the analog image signal to remove noise (step S21). Then, the AGC 22a performs gain control for controlling the intensity of the analog image signal from which noise has been removed (step S22). When the analog image signal is gain-controlled by the AGC 22a, the ADC 23a converts the analog image signal into digital captured image data (step S23). When the ADC 23a converts an analog image signal into captured image data, the frame memory 24a stores the captured image data. The CDS 21b, AGC 22b, and ADC 23b operate in the same manner as the CDS 21a, AGC 22a, and ADC 23a, respectively.

<<視差を算出する処理>>
図10に戻って、次に、視差算出部53は撮像画像データが表す基準画像Ia内における所定の小領域群に含まれる小領域Pxyについて視差dxyを算出する(ステップS3)。
<< Process for calculating parallax >>
Returning to FIG. 10, next, the parallax calculation unit 53 calculates the parallax d xy for the small area P xy included in the predetermined small area group in the reference image Ia represented by the captured image data (step S3).

<<エッジ候補を検出する処理>>
次に、図10に示されるように、エッジ候補検出部55が基準画像Iaの白線エッジ候補領域Pを検出する(ステップS4)。エッジ候補検出部55は基準画像Iaにおいて、各小領域Pxyについてx軸方向に隣接する小領域Pxyにある画素との輝度差ΔL(x,y)=L(x,y)−L(x+1,y)を算出する。ΔL(x,y)が所定の閾値以上であれば、エッジ候補検出部55はその小領域Pxyをエッジ候補領域Pとして検出する。
<< Process for detecting edge candidates >>
Next, as shown in FIG. 10, the edge candidate detection unit 55 detects a white line edge candidate region P e of the reference image Ia (Step S4). In the reference image Ia, the edge candidate detection unit 55 determines the luminance difference ΔL (x, y) = L (x, y) −L (with respect to each pixel in the small region P xy adjacent in the x-axis direction for each small region P xy. x + 1, y) is calculated. [Delta] L (x, y) is equal to or greater than a predetermined threshold, the edge candidate detection unit 55 detects the small region P xy as the edge candidate region P e.

既に説明したように一般的に路面が撮像された基準画像Iaにおいては、図4(2)に示されるように撮像装置からみて手前の部分、すなわち所定のy座標y以下の部分の白線は直線をなしている(以降、この部分を直線部分という)。また、そのような基準画像Iaにおいては、撮像装置からみて奥の部分、すなわち所定のy座標yより大きい部分の白線は曲線をなしている(以降、この部分を曲線部分という)。なお、yは実験の結果から定められた値であり、カーブ路を走行しているときy座標がy以下の小領域では白線は直線をなしているとして処理されるのが好適となる値である。一例としてyは基準画像Iaのy軸方向の中間付近の値とすることが好適である。 In reference image Ia already commonly road as described is imaged, front portion as viewed from the imaging device as shown in FIG. 4 (2), i.e., the white line of the following moiety predetermined y coordinate y s is A straight line is formed (hereinafter, this portion is referred to as a straight portion). Further, in such standard image Ia, the rear portion as viewed from the imaging device, namely a white line of a given y-coordinate y s larger portion is curvilinear (hereinafter, this portion of the curved portion). Note that y s is a value determined from the results of experiments, and when traveling on a curved road, it is preferable that the white line is processed as a straight line in a small region where the y coordinate is y s or less. Value. Y s is it is preferable that a value near the middle of the y-axis direction of the reference image Ia as an example.

次に説明する<エッジ候補領域の第一の検出処理>では、エッジ候補検出部55は白線の直線部分の白線エッジ候補領域Pを検出する。また、白線の曲線部分については、精度を高めることを目的として後述する<エッジ候補領域の第二の検出処理>によって白線エッジ候補領域を検出する。 Will be described in <first detection processing of the edge candidate region>, edge candidate detection unit 55 detects a white line edge candidate region P e of the linear portion of the white line. For the white line curve portion, a white line edge candidate region is detected by <second candidate edge region detection process> described later for the purpose of improving accuracy.

また、これらの処理の説明において、基準画像Iaにおける各小領域Pxyの位置は図4(2)に示されるように座標(x,y)(x=1〜1280、y=1〜960)で表されるとする。 In the description of these processes, the position of each small region P xy in the reference image Ia is coordinates (x, y) (x = 1 to 1280, y = 1 to 960) as shown in FIG. It is assumed that

<エッジ候補領域の第一の検出処理>
第一の検出処理においては、図12に示されるように、まず、エッジ候補検出部55がy=0(ステップS41)に1を加算したy=1(ステップS42)、x=641(ステップS43)から1を減算したx=640(ステップS44)に係る座標にある小領域Pxyにある画素の輝度L(640,1)について輝度差ΔL(640,1)=L(640,1)−L(641,1)を算出する(ステップS45)。そして、ステップS45で算出された輝度差ΔL(640,1)が120以上であるか否かをエッジ候補検出部55が判定する(ステップS46)。ステップS46でΔL(640,1)が120以上でないと判定された場合には、その輝度差に係るx座標を1減算した(ステップS44)座標にある小領域Pxyに係る輝度差ΔL(639,1)=L(639,1)−L(640,1)をエッジ候補検出部55は算出する(ステップS45)。そして、エッジ候補検出部55は輝度差ΔL(639,1)が120以上であるか否かを判定する(ステップS46)。
<First detection process of edge candidate area>
In the first detection process, as shown in FIG. 12, first, the edge candidate detection unit 55 adds 1 to y = 0 (step S41), y = 1 (step S42), x = 641 (step S43). ) Minus the luminance difference ΔL (640,1) = L (640,1) − for the luminance L (640,1) of the pixel in the small area P xy at the coordinate according to x = 640 (step S44). L (641, 1) is calculated (step S45). Then, the edge candidate detection unit 55 determines whether or not the luminance difference ΔL (640, 1) calculated in step S45 is 120 or more (step S46). If it is determined in step S46 that ΔL (640, 1) is not 120 or more, the x coordinate related to the luminance difference is subtracted by 1 (step S44). The luminance difference ΔL (639) related to the small area P xy in the coordinates. , 1) = L (639,1) −L (640,1), the edge candidate detection unit 55 calculates (step S45). Then, the edge candidate detection unit 55 determines whether or not the luminance difference ΔL (639, 1) is 120 or more (step S46).

さらに、ステップS46でΔL(639,1)が120以上でないと判定された場合には、ΔL(639,1)に係るx座標を1減算した(ステップS44)座標にある小領域Pxyの輝度差ΔL(638,1)=L(638,1)−L(639,1)をエッジ候補検出部55が算出する(ステップS45)。そして、エッジ候補検出部55は輝度差ΔL(638,1)が120以上であるか否かを判定する(ステップS46)。このようにして、x座標を1ずつ減算した座標にある小領域Pxyに係る輝度差ΔLの算出(ステップS45)及び判定(ステップS46)を繰り返し、輝度差ΔLが120以上であると判定されたら、その輝度差ΔLに係る小領域Pxyを白線エッジ候補領域Pとして検出する(ステップS47)。 Furthermore, when it is determined in step S46 that ΔL (639,1) is not 120 or more, the luminance of the small region P xy at the coordinate is obtained by subtracting 1 from the x coordinate related to ΔL (639,1) (step S44). The edge candidate detection unit 55 calculates the difference ΔL (638,1) = L (638,1) −L (639,1) (step S45). Then, the edge candidate detection unit 55 determines whether or not the luminance difference ΔL (638, 1) is 120 or more (step S46). In this way, the calculation (step S45) and determination (step S46) of the luminance difference ΔL related to the small area P xy at the coordinate obtained by subtracting the x coordinate by 1 are repeated, and it is determined that the luminance difference ΔL is 120 or more. When, for detecting a small area P xy according to the luminance difference ΔL as white line edge candidate area P e (step S47).

また、白線エッジ候補領域Pが検出されたら、そのy座標についてy≧yであるか否かをエッジ候補検出部55が判定する(ステップS48)。 Further, if the white line edge candidate region P e is detected, it determines the edge candidate detection unit 55 whether or not y ≧ y s for the y-coordinate (step S48).

ステップS418で白線エッジ候補領域Pのy座標がy≧yでないと判定された場合には、y座標に1を加算し(ステップS42)、x=641(ステップS43)から1を減算した(ステップS44)座標(640,2)に係る輝度差ΔL(640,2)=L(640,2)−L(641,2)を算出する(ステップS45)。そして、上述と同様にステップS42乃至ステップS48の処理を繰り返す。これらの処理を繰り返して、処理に係るy≧yであると判定されたら白線エッジ候補領域Pを検出する処理を終了する。 If the y coordinate of the white line edge candidate region P e is determined not y ≧ y s in step S418, 1 is added to y coordinate (step S42), obtained by subtracting 1 from x = 641 (step S43) (Step S44) The luminance difference ΔL (640,2) = L (640,2) −L (641,2) related to the coordinates (640,2) is calculated (Step S45). Then, the processing from step S42 to step S48 is repeated as described above. Repeat these processing, and ends the process of detecting the y ≧ y s a is determined as When the white line edge candidate region P e of the process.

このようにして、基準画像Iaの各小領域Pxyについて順に輝度差ΔLを算出することによって、y座標ごとに白線エッジ候補領域Pを算出することができる。 In this manner, by calculating the luminance difference ΔL sequentially for each small region P xy reference image Ia, it can be calculated white line edge candidate region P e for each y-coordinate.

なお、ステップS43乃至ステップS46の処理の説明で記載したように、基準画像Iaにおける中央部分の小領域Pxy(座標(640,y))から外側の小領域Pxy(座標(1,y))に向けて順にエッジ候補検出部55は輝度差ΔLを算出及び判定し、白線エッジ候補領域Pが検出されたらこの処理を終了する。すなわち、白線エッジ候補領域Pのx座標より小さいx座標の小領域Pxyについてのこれらの処理は行わない。このため、エッジ候補検出部55を実現するCPU32の負荷を削減することが可能となる。 As described in the description of the processing in steps S43 to S46, the small area P xy (coordinate (640, y)) in the central portion of the reference image Ia to the outer small area P xy (coordinate (1, y)). The edge candidate detection unit 55 calculates and determines the luminance difference ΔL in order toward (), and ends this process when the white line edge candidate region Pe is detected. That is, these processes for the small areas P xy of x-coordinate is smaller than the x coordinate of the white line edge candidate region P e is not performed. For this reason, it is possible to reduce the load on the CPU 32 that implements the edge candidate detection unit 55.

ステップS48までの処理が終了すると、図6(3)に示されるように座標(x,y)ごとに輝度差ΔL(x,y)が算出される。   When the processing up to step S48 is completed, a luminance difference ΔL (x, y) is calculated for each coordinate (x, y) as shown in FIG.

なお、図12を用いて説明した処理は基準画像Iaにおける中央より左側の小領域(座標x=1〜640)に撮像されている白線エッジ候補領域Pを検出することを目的とするものである。そのため、ここで検出された白線エッジ候補領域Pは中央より左側の白線エッジを表す左白線エッジ候補領域Pelである。また、車両が走行する一般的な路面には、左側だけではなく右側にも白線が描かれている。このため、エッジ候補検出部55は基準画像Iaにおける中央より右側の小領域(座標x=641〜1280)についても同様の処理を行う。そして、検出された白線エッジ候補領域Pは右白線エッジ候補領域Perとされる。 Incidentally, the processing described with reference to FIG. 12 aims to detect the white line edge candidate region P e being imaged to a small area on the left from the center in the reference image Ia (coordinate x = 1-640) is there. Therefore, where the detected white-line edge candidate region P e is the left white line edge candidate area P el representing the left white line edge than the center. Further, a white line is drawn not only on the left side but also on the right side on a general road surface on which the vehicle travels. For this reason, the edge candidate detection unit 55 performs the same processing on the small region (coordinates x = 641 to 1280) on the right side of the center in the reference image Ia. Then, the detected white line edge candidate region P e is the right white line edge candidate region P er.

<エッジ候補領域の第二の検出処理(概要)>
図13乃至図15を用いて、エッジ候補領域の第二の検出処理について説明する。図13は、エッジ候補検出部55の第二の処理の概要を説明するためのフロー図である。図14は、エッジ候補検出部55の第二の処理の詳細を表すフロー図である。図15は、基準画像Iaの一部Aを拡大した図である。
<Second Detection Process of Edge Candidate Area (Overview)>
The second detection process of the edge candidate area will be described with reference to FIGS. FIG. 13 is a flowchart for explaining the outline of the second process of the edge candidate detection unit 55. FIG. 14 is a flowchart showing details of the second processing of the edge candidate detection unit 55. FIG. 15 is an enlarged view of a part A of the reference image Ia.

ここで、第二の検出処理の詳細について説明する前に、カーブ方向判定部58による判定の結果を第二の検出処理で用いることを説明する。既に説明したとおり、撮像部51は所定の時間間隔で撮像画像を生成する(図10のステップS1)。この所定の時間に画像処理システム1が搭載された車両等は進行方向に向かって所定の距離だけ移動するので、順次撮像される画像はそれぞれ異なったものとなる。図13に示されるように撮像部が1回目に生成した(ステップS1−1)撮像画像については、上記<エッジ候補領域の第一の検出処理>に記載したようにエッジ候補検出部55が白線の直線部分のエッジ候補領域P及び白線の曲線部分のエッジ候補領域Pを検出する(ステップS4−1)。そして、検出されたこれらのエッジ候補領域Pに基づいて、カーブ方向判定部58は路面がカーブしている方向を判定する(ステップS6−1)。なお、ステップS6−1でカーブ方向判定部58が行う処理の詳細については追って説明する。 Here, before describing the details of the second detection process, it will be described that the result of determination by the curve direction determination unit 58 is used in the second detection process. As already described, the imaging unit 51 generates captured images at predetermined time intervals (step S1 in FIG. 10). Since the vehicle or the like on which the image processing system 1 is mounted at the predetermined time moves by a predetermined distance in the traveling direction, the sequentially captured images are different from each other. As shown in FIG. 13, for the captured image generated by the imaging unit for the first time (step S <b> 1-1), the edge candidate detection unit 55 performs white lines as described in <First detection process of edge candidate region> above. detecting an edge candidate region P e of the edge candidate region P e and the curved portion of the white line of the linear portion of the (step S4-1). Then, was detected on the basis of these edge candidate region P e, the curve direction determining unit 58 determines the direction in which the road surface is curved (step S6-1). Details of the process performed by the curve direction determination unit 58 in step S6-1 will be described later.

撮像部が2回目に生成した(ステップS1−2)撮像画像については、上記<エッジ候補領域の第一の検出処理>に記載したように白線の直線部分のエッジ候補領域Pを検出する(ステップS4−2)。そして、1回目にカーブ方向判定部58によって判定されたカーブの方向に基づいて<エッジ候補領域の第二の検出処理(詳細)>で追って説明するように白線の曲線部分のエッジ候補領域を検出する(ステップS5−2)。続いてこれらのエッジ候補領域Pそれぞれを用いてカーブ方向判定部58は、路面がカーブしている方向を判定する(ステップS6−2)。 Imaging unit has generated the second time for (step S1-2) captured image, detects the edge candidate region P e of the linear portion of the white line as described in the <first detection processing of the edge candidate region> ( Step S4-2). Then, based on the curve direction determined by the curve direction determination unit 58 for the first time, the edge candidate region of the curve portion of the white line is detected as described later in <Second candidate edge region detection processing (details)>. (Step S5-2). Subsequently, using each of these edge candidate regions Pe , the curve direction determination unit 58 determines the direction in which the road surface is curved (step S6-2).

同様に、撮像部がn回目(n≧2)に生成した(ステップS1−n)撮像画像については、上記<エッジ候補領域の第一の検出処理>に記載したように白線の直線部分のエッジ候補領域Pを検出する(ステップS4−n)。そして、(n−1)回目にカーブ方向判定部58によって判定された方向に基づいて<エッジ候補領域の第二の検出処理(詳細)>で追って説明するように白線の曲線部分のエッジ候補領域Pを検出する(ステップS5−n)。そして、これらのエッジ候補領域Pそれぞれを用いてカーブ方向判定部58は、路面がカーブしている方向を判定する(ステップS6−n)。 Similarly, for the captured image generated by the imaging unit at the nth time (n ≧ 2) (step S1-n), the edge of the straight line portion of the white line as described in the above <first detection process of edge candidate region> Candidate area Pe is detected (step S4-n). Then, based on the direction determined by the curve direction determination unit 58 in the (n−1) th time, as described later in <Second detection process of edge candidate area (details)>, the edge candidate area of the curve portion of the white line Pe is detected (step S5-n). Then, using each of these edge candidate regions Pe , the curve direction determination unit 58 determines the direction in which the road surface is curved (step S6-n).

<エッジ候補領域の第二の検出処理(詳細)>
次に、ステップS5でエッジ候補検出部55が行う第二の検出処理の詳細について図14及び図15を用いて説明する。ここでは、まず、当該第二の検出処理に係る撮像画像が撮像された時刻の所定の時間前に撮像された撮像画像の路面が右にカーブしていると判定された場合の検出処理について説明する。上記、第一の検出処理においてy=yにおける白線エッジ候補領域Pは既に検出されており、ここでの説明においてはその座標を(x,y)とする(図15(i)で示される小領域)。
<Second Detection Process of Edge Candidate Area (Details)>
Next, details of the second detection process performed by the edge candidate detection unit 55 in step S5 will be described with reference to FIGS. Here, first, the detection process when it is determined that the road surface of the captured image captured before a predetermined time before the captured image related to the second detection process is curved to the right will be described. To do. Above, the white line edge candidate region P e at y = y s in the first detection processing has already been detected, in the description here to the coordinates (x s, y s) (FIG. 15 (i) Small area indicated by

まず、エッジ候補検出部55はy=y(ステップS51)に1を加算したy=y+1(ステップS52)、x=x−1(ステップS53)に1を加算したx=x(ステップS54)に係る座標にある小領域Pxy(図15(ii)を参照)の画素の輝度L(x,y+1)について輝度差ΔL(x,y+1)=L(x,y+1)−L(x+1,y+1)を算出する(ステップS55)。そして、ステップS55で算出された輝度差ΔL(x,y+1)が120以上であるか否かをエッジ候補検出部55が判定する(ステップS56)。ステップS56でΔL(x,y+1)が120以上でないと判定された場合には、その輝度差に係るx座標に1を加算した(ステップS54)座標にある小領域Pxy(図15(iii)を参照)に係る輝度差ΔL(x+1,y+1)=L(x+1,y+1)−L(x+2,y+1)をエッジ候補検出部55は算出する(ステップS55)。そして、エッジ候補検出部55は輝度差ΔL(xs1+1,y+1)が120以上であるか否かを判定する(ステップS56)。 First, the edge candidate detection unit 55 adds y to y = y s (step S51), y = y s +1 (step S52), and x = x s −1 (step S53) adds 1 to x = x s. The luminance difference ΔL (x s , y s +1) = L () for the luminance L (x s , y s +1) of the pixel in the small region P xy (see FIG. 15 (ii)) at the coordinates related to (Step S54) x s, y s +1) calculates the -L (x s + 1, y s +1) ( step S55). Then, the edge candidate detection unit 55 determines whether or not the luminance difference ΔL (x s , y s +1) calculated in step S55 is 120 or more (step S56). In step S56 ΔL (x s, y s +1) is the case where it is determined not to be 120 or more, obtained by adding 1 to the x-coordinate of the luminance difference (step S54) small regions P xy at the coordinates (Fig. 15 luminance difference ΔL according to see (iii)) (x s + 1, y s +1) = L (x s + 1, y s +1) -L (x s + 2, y s +1) edge candidate detection unit 55 is calculated (Step S55). Then, the edge candidate detection unit 55 determines whether or not the luminance difference ΔL (x s1 +1, y s +1) is 120 or more (step S56).

さらに、ステップS56でΔL(x+1,y+1)が120以上でないと判定された場合には、ΔL(x+1,y+1)に係るx座標に1を加算した(ステップS54)座標にある小領域Pxyの輝度差ΔL(x+2,y+1)=L(x+2,y+1)−L(x+3,y+1)をエッジ候補検出部55が算出する(ステップS55)。そして、エッジ候補検出部55は輝度差ΔL(x+2,y+1)が120以上であるか否かを判定する(ステップS56)。このようにして、x座標を1ずつ加算した座標にある小領域Pxyに係る輝度差ΔLの算出(ステップS55)及び判定(ステップS56)を繰り返し、輝度差ΔL(x+n,y+1)が120以上であると判定されたら、その輝度差ΔLに係る小領域Pxyを白線エッジ候補領域Pとして検出する(ステップS57)。 Further, [Delta] L in step S56 (x s + 1, y s +1) is the case where it is determined not to be 120 or more, obtained by adding 1 to the x-coordinate of the ΔL (x s + 1, y s +1) ( step S54) The edge candidate detection unit 55 calculates the luminance difference ΔL (x s +2, y s +1) = L (x s +2, y s +1) −L (x s +3, y s +1) of the small region P xy at the coordinates. (Step S55). Then, the edge candidate detection unit 55 determines whether or not the luminance difference ΔL (x s +2, y s +1) is 120 or more (step S56). In this way, the calculation (step S55) and determination (step S56) of the luminance difference ΔL related to the small region P xy at the coordinate obtained by adding the x coordinate by 1 are repeated, and the luminance difference ΔL (x s + n, y s +1) is repeated. ) is if it is determined that 120 or more, to detect a small region P xy according to the luminance difference ΔL as white line edge candidate area P e (step S57).

ステップS57で白線エッジ候補領域Pの輝度差ΔLが120以上であると判定されたら、そのy座標が消失点Pのy座標であるy以上であるか否かをエッジ候補検出部55が判定する(ステップS58)。 When the luminance difference ΔL of the white line edge candidate region P e is determined to be 120 or more in step S57, y v edge or not is whether or candidate detection unit 55 is a y coordinate of the y-coordinate is the vanishing point P v Is determined (step S58).

ステップS58で白線エッジ候補領域Pのy座標がy以上でないと判定された場合には、y座標に1を加算し(ステップS52)、x=x+n(=xs1とする)とした座標(xs1,y+2)にある小領域Pxy(図15(iv))を参照)に係る輝度差ΔL(xs1,y+2)=L(xs1,y+2)−L(xs1+1,y+2)を算出する(ステップS55)。そして、上述と同様にステップS52乃至ステップS58の処理を繰り返す。これらの処理を繰り返して、y座標がy以上であると判定されたら白線エッジ候補領域Pを検出する処理を終了する。 If the y coordinate of the white line edge candidate region P e is determined not to be y v or more in step S58, the 1 is added to y coordinate (step S52), (a = x s1) x = x s + n coordinates (x s1, y s +2) small regions P xy in (FIG. 15 (iv)) luminance difference ΔL according to see) (x s1, y s +2 ) = L (x s1, y s +2) - L (x s1 +1, y s +2) is calculated (step S55). Then, the processing from step S52 to step S58 is repeated in the same manner as described above. Repeat these processes, y coordinates terminates the process for detecting a white line edge candidate region P e if it is determined that y v or more.

所定の時間前に生成された基準画像Iaに撮像されている路面が右にカーブしている場合には、撮像画像内における白線エッジ候補領域Pのx座標はy座標の増加に伴い増加するため、上記のようにy座標の増加に伴いx座標を増加させながら輝度差ΔLの算出及び判定をする。すなわち、既に白線エッジ候補領域Pが検出されている小領域Pxyより右上の小領域Pxyについて白線エッジ候補領域Pを検出するために輝度差ΔLが所定の値以上であるか否か判定する処理を行う。このような順に処理を行うことによって白線エッジ候補領域Pの誤検出を減少させることができ、路面を判定する処理の精度が向上する。 If the road surface being imaged is curved to the right in the reference image Ia generated before a predetermined time, x-coordinate of the white line edge candidate region P e in the captured image increases with increasing y coordinate Therefore, as described above, the luminance difference ΔL is calculated and determined while increasing the x coordinate as the y coordinate increases. That is, whether already or brightness difference ΔL to detect the white line edge candidate region P e for the upper right small area P xy than the small region P xy which white line edge candidate region P e is detected is the predetermined value or more Processing to determine is performed. Such by performing the process in the order it is possible to reduce the erroneous detection of the white line edge candidate region P e, to improve the accuracy of the process for determining the road surface.

同様にして、所定の時間前に生成された基準画像Iaに撮像されている路面が左にカーブしていると判定された場合には、ステップS54でx座標を1ずつ減算した座標にある小領域Pxyに係る輝度差ΔLの算出(ステップS55)及び判定(ステップS56)を繰り返し、輝度差ΔLが120以上であると判定されたら、その輝度差ΔLに係る小領域Pxyを白線エッジ候補領域Pとして検出する(ステップS57)。 Similarly, when it is determined that the road surface imaged in the reference image Ia generated a predetermined time before is curved to the left, the small coordinate at the coordinate obtained by subtracting the x coordinate by 1 in step S54. The calculation (step S55) and determination (step S56) of the luminance difference ΔL related to the region P xy are repeated, and if the luminance difference ΔL is determined to be 120 or more, the small region P xy related to the luminance difference ΔL is determined as a white line edge candidate. detecting a region P e (step S57).

路面が右にカーブしている場合にy座標の増加に伴いx座標を減少させながら白線エッジ候補領域Pを検出したら、その白線エッジ候補領域Pは誤検出である可能性が高い。そのため、y座標の増加に伴いx座標を増加させながら輝度差ΔLの算出及び判定をすることにより、白線エッジ候補領域Pの誤検出を減少させることができ、路面を判定する処理の精度が向上する。 When the road surface is detected white line edge candidate region P e while decreasing the x-coordinate with the increase of the y-coordinate if the curved to the right, is likely to be erroneously detected that the white line edge candidate region P e. Therefore, by the calculation and determination of the luminance difference ΔL with increasing x-coordinate with the increase of the y-coordinate, it is possible to reduce the erroneous detection of the white line edge candidate region P e, the accuracy of a process for determining the road surface improves.

なお、路面が左にカーブしている場合には、撮像画像内における白線エッジ候補領域Pのx座標はy座標の増加に伴い減少するため、上記のようにy座標の増加に伴いx座標を減少させながら輝度差ΔLの算出及び判定をする。 In the case where the road surface is curved to the left, since the x-coordinate of the white line edge candidate region P e in the captured image is to be reduced with increasing y coordinate, the x coordinate with the increase of the y-coordinate, as described above The luminance difference ΔL is calculated and determined while decreasing the.

<<カーブを判定する処理>>
図10に戻って、エッジ候補検出部55が白線エッジ候補領域Pを検出する(ステップS4及びステップS5)と、カーブ方向判定部58は基準画像Iaに撮像されている路面が右の方向へカーブしているか、左の方向へカーブしているかを判定する(ステップS6)。
<< Process for judging curve >>
Returning to FIG. 10, the edge candidate detection unit 55 detects a white line edge candidate region P e (step S4 and step S5), and the curve direction determining unit 58 road surface is captured in the reference image Ia is to right It is determined whether the curve is curved or curved in the left direction (step S6).

<近似直線の交点を検出する処理>
まず、図16に示されるように直線交点検出部581が基準画像Ia上の左側の白線の直線部分の延長線と右側の直線部分の延長線との交点Pを算出する(ステップS61)
具体的には、図17に示されるように直線交点検出部581が左側の直線部分についての白線エッジ候補領域Pel群について直線近似し、左側の近似直線lineL1(図4(2)を参照)を算出する(ステップS611)。同様にして、直線交点検出部581は右側の直線部分についての白線エッジ候補領域Per群を直線近似し、近似直線lineR1(図4(2)を参照)を算出する(ステップS612)。そして、直線交点検出部581は右側の近似直線lineL1と近似直線lineR1との交点Pの位置を表す座標(x、y)を算出する(ステップS613)。なお、左側の近似直線lineL1を算出する処理、右側の近似直線lineR1を算出する処理はいずれを先に行ってもよい。
<Process for detecting intersection of approximate lines>
First, as shown in FIG. 16, the straight intersection detection unit 581 calculates an intersection P i between the extension line of the left white line on the reference image Ia and the extension line of the right straight line (step S61).
Specifically, (see FIG. 4 (2)) by linearly approximating the left approximation line lineL1 straight intersection point detection unit 581 for the white line edge candidate region P el group of the linear portion of the left side as shown in FIG. 17 Is calculated (step S611). Similarly, the linear intersection point detection unit 581 linearly approximates the white line edge candidate area P er groups of the linear portion of the right side, and calculates an approximate straight line LineR1 (see Figure 4 (2)) (step S612). The linear intersection detection unit 581 then calculates coordinates (x i , y i ) representing the position of the intersection P i between the right approximate line line L1 and the approximate line line R1 (step S613). Note that either the process of calculating the left approximate line line L1 or the process of calculating the right approximate line line R1 may be performed first.

<消失点の検出処理>
続いて、図16に戻って消失点検出部582は左右の白線の消失点Pを検出する(ステップS62)。具体的には、図18に示されるように消失点検出部582が左側の曲線部分の白線エッジ候補領域Pel群について近似曲線lineL2(図4(2)を参照)を算出する(ステップS621)。同様にして、消失点検出部582は右側の曲線部分の白線エッジ候補領域Per群について近似曲線lineR2(図4(2)を参照)を算出する(ステップS622)。さらに、消失点検出部582は近似曲線lineL2と近似曲線lineR2との交点である消失点Pの位置を表す座標(x、y)を算出する(ステップS623)。なお、左側の近似曲線lineL2を算出する処理、右側の近似曲線lineR2を算出する処理はいずれを先に行ってもよい。
<Disappearance detection process>
Subsequently, returning to FIG. 16, the vanishing point detection unit 582 detects the vanishing point Pv of the left and right white lines (step S62). Specifically, calculates the approximate curve vanishing point detecting unit 582 for the white line edge candidate region P el group left curved portions as shown in FIG. 18 LineL2 (see Figure 4 (2)) (Step S621) . Similarly, the vanishing point detecting unit 582 calculates an approximate curve LineR2 (see Figure 4 (2)) for white line edge candidate area P er groups of the right curved portion (step S622). Further, the vanishing point detection unit 582 calculates coordinates (x v , y v ) representing the position of the vanishing point P v that is the intersection of the approximate curve line L2 and the approximate curve line R2 (step S623). Note that either the process of calculating the left approximate curve lineL2 or the process of calculating the right approximate curve lineR2 may be performed first.

<判定処理>
そして、再び図16に戻って、近似直線lineL1と近似直線lineR1との交点Pと消失点Pに基づいて、判定部583が基準画像Iaに撮像されている路面が右の方向へカーブしているか、左の方向へカーブしているかを判定する(ステップS63)。具体的には、交点Pの座標を(x、y)としたときに、判定部583は消失点Pの位置を表すx座標であるxがxより大きいか、小さいか、またはx=xであるかを判定する。図4(2)に示されるようにxがxより大きいと判定された場合には、判定部583は路面が右にカーブしていると判定する。また、xがxより小さいと判定された場合には、判定部583は路面が左にカーブしていると判定する。また、x=xであると判定された場合には、判定部583は路面が直線であると判定する。
<Judgment process>
Then, again returning to FIG. 16, based on the vanishing point P v and the intersection P i of the approximate line lineR1 the approximate line LineL1, road surface judging unit 583 is captured in the reference image Ia is curved to the right in the direction Or whether it is curved in the left direction (step S63). Specifically, when the coordinates of the intersection point P i are (x i , y i ), the determination unit 583 determines whether x v that is the x coordinate representing the position of the vanishing point P v is larger or smaller than x i . Or x v = x i . If it is determined that x v is greater than x i as shown in FIG. 4 (2), the determination unit 583 determines that the road surface is curved to the right. Further, when the x v is determined that x i is smaller than, the determination unit 583 determines that the road surface is curved to the left. Further, when it is determined that x v = x i, the determination unit 583 determines that the road surface is linear.

<<白線視差を決定する処理>>
続いて、図10に戻って、白線視差決定部56はステップS4及びステップS5でエッジ候補検出部55によって検出された白線エッジ候補領域Pに基づいて白線領域Pの視差dを決定する(ステップS7)。具体的には、図19に示されるように、まず回帰直線算出部561が白線エッジ候補領域Pのy座標と視差dの回帰直線を算出する(ステップS71)。具体的には、白線エッジ候補領域Pの各y座標と視差dについて、白線視差決定部56がHough変換によって図7に示される回帰直線Reg−lineを決定する。そして、白線視差決定部56は各y座標における回帰直線Reg−line上の視差dを各y座標の左白線視差dと決定する(ステップS72)。
<< Process for determining white line parallax >>
Subsequently, returning to FIG. 10, the white line parallax determining section 56 determines the disparity d w of the white line area P w based on the white line edge candidate area P e detected by the edge candidate detection unit 55 in step S4 and step S5 (Step S7). Specifically, as shown in FIG. 19, first, a regression line calculation section 561 calculates a regression line of y-coordinate and the parallax d e of the white line edge candidate region P e (step S71). Specifically, for each y-coordinate and the parallax d e of the white line edge candidate region P e, white disparity determination unit 56 determines the regression line Reg-line shown in FIG. 7 by the Hough transform. Then, the white line parallax determining section 56 determines the disparity d e on the regression line Reg-line at each y-coordinate and the left white line parallax d w of the y-coordinate (step S72).

基準画像Iaにおいてこのように回帰直線Reg−lineを算出することによって白線エッジ候補領域Pに含まれるノイズを除去することができ、白線視差dを高い精度で決定することができる。これにより、距離Zを正確に算出することができる。 Can remove noise contained in the white line edge candidate area P e by the reference image Ia is calculated in this manner regression line Reg-line, it is possible to determine the white line disparity d w with high accuracy. Thereby, the distance Z can be calculated accurately.

<<走行領域を検出する処理>>
続いて、図10に戻って走行領域検出部57が、基準画像Iaの所定の小領域群に含まれる小領域Pxyから走行領域を検出する(ステップS8)。
<< Process to detect travel area >>
Subsequently, returning to FIG. 10, the travel region detection unit 57 detects the travel region from the small region P xy included in the predetermined small region group of the reference image Ia (step S8).

<度数を算出する処理>
まず、図20に示されるように度数算出部571が所定の小領域群に含まれる小領域Pxyについて、基準画像Iaの座標xで表される小領域Pxyのうち視差dxyである小領域Pxyの度数Cを算出する(ステップS81)。既に説明したように度数算出部571によって算出された結果が図9に示されている。
<Process to calculate frequency>
First, the small number calculating unit 571 as shown in FIG. 20 is a small area for P xy, the disparity d xy among the small regions P xy represented by coordinates x of the reference image Ia included in a predetermined small region groups The frequency C of the area P xy is calculated (step S81). As described above, the result calculated by the frequency calculation unit 571 is shown in FIG.

<度数を判定する処理>
度数判定部572は度数算出部571によって算出された度数Cが閾値Cp以上であるか否かを判定する(ステップS82)。<度数算出部>で説明したように被写体Sが建物等である小領域Pxyに係る度数分布図上の度数Cは被写体Sが路面である小領域Pxyに係る度数分布図上の度数Cより大きい。すなわち、度数Cが所定の閾値Cpより大きいか否かを判定することにより小領域Pxyが建物等を表すものであるか否かを判定することができる。
<Process to determine frequency>
The frequency determination unit 572 determines whether or not the frequency C calculated by the frequency calculation unit 571 is greater than or equal to the threshold value Cp (step S82). Power C of the frequency distribution diagram power C is the subject S of the frequency distribution diagram according to the small region P xy object S is a building or the like as described in the <number calculating section> is according to the small region P xy which is a road surface Greater than. That is, it can be determined whether or not the small area P xy represents a building or the like by determining whether or not the frequency C is larger than a predetermined threshold Cp.

ここで、度数判定部572が、度数Cが所定の閾値Cpより大きいか否かを判定する処理の詳細について図21を用いて説明する。度数判定部572が判定する処理をするために、まず境界間小領域算出部574がエッジ候補検出部55によって検出された左右の白線エッジ候補領域P群の度数分布図上での近似直線lineL3と近似直線lineR3との二等分線lineh3、近似曲線lineL4と近似曲線lineR4との二等分線lineh4を含む線lineh(図9参照)を算出する(ステップS821)。具体的には、境界間小領域算出部574は左白線エッジ候補領域Per、右白線エッジ候補領域Perそれぞれのx座標、視差dを度数分布図に表示する。そして、図9に示されるように境界間小領域算出部574は左白線エッジ候補領域Pelの近似直線lineL3と右白線エッジ候補領域Perの近似直線lineR3、及びそれらの二等分線lineh3を算出する。また、図9に示されるように境界間小領域算出部574は左白線エッジ候補領域Pelの近似曲線lineL4と右白線エッジ候補領域Perの近似曲線lineR4、及びそれらの二等分線lineh4を算出する。以降の説明では、二等分線lineh3および二等分線lineh4を含む線をlinehとし、linehは度数分布図上で数式x=f(d)で表されるものとする。なお、linehに対応する小領域Pxyは所定の小領域の一例であり、境界間小領域算出部574は境界間小領域算出手段の一例である。 Here, details of a process in which the frequency determination unit 572 determines whether the frequency C is greater than a predetermined threshold Cp will be described with reference to FIG. For frequency determination unit 572 is a process of determining, approximation in the frequency distribution diagram of first white line edge candidate area P e groups of the left and right of the boundary between the small area calculating unit 574 is detected by the edge candidate detection unit 55 linearly lineL3 A line lineh (see FIG. 9) including a bisector lineh3 of the approximate line lineR3 and a bisector lineh4 of the approximate curve lineL4 and the approximate curve lineR4 is calculated (step S821). Specifically, the inter-border small region calculation unit 574 displays the x coordinate and the parallax d of each of the left white line edge candidate region Per and the right white line edge candidate region Per in the frequency distribution diagram. Then, the boundary between the small area calculating unit 574 approximates the left white line edge candidate area P el linear lineL3 and right white line edge candidate region P er approximate straight line LineR3, and bisector lineh3 thereof as shown in FIG. 9 calculate. Also, the boundary between the small area calculating unit 574 left white line edge candidate region P el approximate curve lineL4 and right white line edge candidate trendline area P er lineR4, and their bisector lineh4 as shown in FIG. 9 calculate. In the following description, it is assumed that a line including the bisector lineh3 and the bisector lineh4 is lineh, and lineh is expressed by the equation x = f (d) on the frequency distribution diagram. Note that the small area P xy corresponding to lineh is an example of a predetermined small area, and the small boundary area calculation unit 574 is an example of a small boundary area calculation unit.

そして、度数判定部572は、座標(x,d)で表される度数分布図上で線分lineh上にある座標(f(d),d)(図9(i)を参照)の度数Cについて(ステップS822)、C≧Cpであるか否かを判定する(ステップS823)。ステップS823でC≧Cpであると判定された場合、度数判定部572は度数分布図における座標(x,d)に対応する基準画像Ia上の小領域Pxyを建物等が表されているものであると判定する(ステップS824)。ステップS823でC≧Cpでないと判定された場合、度数判定部572は度数分布図における座標xから1を減算した(ステップS825)座標(f(d)−1,d)(図9(ii)を参照)に係る度数CについてC≧Cpであるか否かを判定する(ステップS823)。 Then, the frequency determination unit 572 displays the frequency C of the coordinates (f (d), d) (see FIG. 9 (i)) on the line segment lineh on the frequency distribution diagram represented by the coordinates (x, d). (Step S822), it is determined whether or not C ≧ Cp (step S823). When it is determined in step S823 that C ≧ Cp, the frequency determination unit 572 represents a small area P xy on the reference image Ia corresponding to the coordinates (x, d) in the frequency distribution diagram in which a building or the like is represented. (Step S824). When it is determined in step S823 that C ≧ Cp is not satisfied, the frequency determination unit 572 subtracts 1 from the coordinate x in the frequency distribution chart (step S825) coordinates (f (d) -1, d) (FIG. 9 (ii) It is determined whether or not C ≧ Cp with respect to the frequency C according to (see step S823).

さらにC≧Cpでないと判定された場合、度数判定部572は度数分布図における座標xから1を減算した(ステップS825)座標(f(d)−2,d)(図9(iii)を参照)に係る度数CについてC≧Cpであるか否かを判定する(ステップS823)。このように、順次、x座標から1を減算しながら(ステップS825)度数Cについて判定を行い(ステップS823)、座標(f(d)−n,d)(図9(iv)を参照)に係る度数CについてC≧Cpであると判定されたら、度数判定部572は座標x=f(d)−n,視差dに対応する小領域Pxyを建物等が表されているものであると判定する(ステップS824)。 Further, when it is determined that C ≧ Cp is not satisfied, the frequency determination unit 572 subtracts 1 from the coordinate x in the frequency distribution chart (step S825) coordinates (f (d) −2, d) (see FIG. 9 (iii)). It is determined whether or not C ≧ Cp for the frequency C related to () (step S823). In this manner, the frequency C is determined while sequentially subtracting 1 from the x coordinate (step S825) (step S823), and the coordinates (f (d) -n, d) (see FIG. 9 (iv)) are determined. If it is determined that C ≧ Cp for the frequency C, the frequency determination unit 572 indicates that a building or the like is represented in the small area P xy corresponding to the coordinate x = f (d) −n and the parallax d. Determination is made (step S824).

ここで図9に示される度数分布図の具体例を用いて、度数判定部572が、度数Cが所定の閾値以上であるか否かを判定する処理について説明する。この具体例において上記の所定の閾値はCp=4であるとする。たとえば、度数分布図の視差d=100についての処理は次のとおりである。度数判定部572は度数分布図上の二等分線linehの視差d=100に対応するx座標をx=f(100)と算出する(ステップS822)。図9に示される具体例ではx=f(100)=9である。このとき度数判定部572は座標(x,d)=(9,100)(図9(i)を参照)における度数CについてC≧Cpであるか否かを判定する(ステップS823)。この具体例ではC=1、Cp=4であるため、C≧Cpではないと判定される。   Here, a process in which the frequency determination unit 572 determines whether or not the frequency C is equal to or greater than a predetermined threshold will be described using a specific example of the frequency distribution diagram illustrated in FIG. 9. In this specific example, it is assumed that the predetermined threshold is Cp = 4. For example, the processing for the parallax d = 100 in the frequency distribution diagram is as follows. The frequency determination unit 572 calculates the x coordinate corresponding to the parallax d = 100 of the bisector lineh on the frequency distribution diagram as x = f (100) (step S822). In the specific example shown in FIG. 9, x = f (100) = 9. At this time, the frequency determination unit 572 determines whether or not C ≧ Cp for the frequency C at the coordinates (x, d) = (9, 100) (see FIG. 9I) (step S823). In this specific example, since C = 1 and Cp = 4, it is determined that C ≧ Cp is not satisfied.

次に度数判定部572は座標xについて1を減算した(ステップS825)座標(x,d)=(8,100)(図9(ii)を参照)における度数CについてC≧Cpであるか否かを判定する(ステップS823)。この処理を繰り返して座標(x,d)=(3,100)(図9(iv)を参照)における度数CについてC≧Cpであるか否かを判定する(ステップS823)と、C=6、Cp=4であるためC≧Cpであると判定される。これにより、度数判定部572は座標x=3、視差d=100に対応する小領域Pxyを建物等であると判定して(ステップS824)処理を終了する。建物等であると判定されたら、座標x=1〜2、視差d=100における度数CがC≧Cpであるか否かの判定は行わない。 Next, the frequency determination unit 572 subtracts 1 from the coordinate x (step S825). Whether or not C ≧ Cp for the frequency C at the coordinates (x, d) = (8, 100) (see FIG. 9 (ii)). Is determined (step S823). This process is repeated to determine whether C ≧ Cp for the frequency C at coordinates (x, d) = (3, 100) (see FIG. 9 (iv)) (step S823), C = 6. Since Cp = 4, it is determined that C ≧ Cp. Thereby, the frequency determination unit 572 determines that the small area P xy corresponding to the coordinate x = 3 and the parallax d = 100 is a building or the like (step S824) and ends the process. If it is determined that the building is a building or the like, it is not determined whether or not the frequency C at the coordinates x = 1 to 2 and the parallax d = 100 is C ≧ Cp.

上記において視差d=100に係る処理を説明したが、度数分布図上の全ての視差dについて同様の処理を行う。また、上記においては線分linehより左の座標(x,d)についての度数Cを処理の対象としていたが、ステップS825での処理を度数分布図における座標xに1を加算することによって線分linehより右の座標(x,d)についての度数Cについても同様に建物等であるか否かを判定する。   Although the processing related to the parallax d = 100 has been described above, the same processing is performed for all the parallaxes d on the frequency distribution diagram. In the above description, the frequency C with respect to the coordinates (x, d) to the left of the line segment lineh is the target of processing. However, the processing in step S825 is performed by adding 1 to the coordinate x in the frequency distribution diagram. It is similarly determined whether or not the frequency C with respect to coordinates (x, d) to the right of lineh is a building or the like.

<検出する処理>
検出部573は度数判定部572によって検出された左の物体領域Pbrおよび右の物体領域Pbrの間にある小領域Pxyを走行領域として検出する。
<Process to detect>
Detector 573 detects the small region P xy which is between the object region P br and right object region P br left detected by the frequency determining unit 572 as the travel area.

このように、度数分布図において決定された線分lineh上の座標(x,d)についての度数Cからx軸方向端部の座標(1,d)に向かって順に建物等であるか否かを判定する処理を行う。そして、ある座標(x,d)に係る度数Cについて建物等であると判定されたら、該座標(x,d)より端部の座標(x,d)に係る度数Cについての判定を行わない。これによって、たとえば図4(1)に示される部分B、すなわちカーブの方向が右である場合の左側の部分については路面であるか否かの判定が行われない。そのため、ノイズ等による誤検出を防ぐことができ、画像内に撮像されている路面を高い精度で検出することができる。   In this way, whether or not a building or the like is in order from the frequency C with respect to the coordinates (x, d) on the line segment lineh determined in the frequency distribution diagram from the coordinates (1, d) at the end in the x-axis direction. The process which determines is performed. If it is determined that the frequency C related to a certain coordinate (x, d) is a building or the like, the frequency C related to the coordinate (x, d) at the end portion is not determined from the coordinate (x, d). . Accordingly, for example, the portion B shown in FIG. 4A, that is, the left portion when the curve direction is right, is not determined as to whether it is a road surface. Therefore, erroneous detection due to noise or the like can be prevented, and the road surface imaged in the image can be detected with high accuracy.

〔実施形態の補足〕
上記の実施形態においては、度数判定部572は度数分布図上の線分linehにあたる座標(f(d),d)から端部の座標(1,d)に向かって順に各座標(x,d)に対応する度数Cが閾値Cp以上であるか否かを判定している。しかし、線分linehではなく近似直線lineL3と近似直線lineR3の間にある所定の座標(x,d)から端部の座標(1,d)に向かって順に各座標(x,d)に対応する度数Cが閾値Cp以上であるか否かを判定してもよい。
[Supplement of Embodiment]
In the above embodiment, the frequency determination unit 572 sequentially sets the coordinates (x, d) from the coordinates (f (d), d) corresponding to the line segment lineh on the frequency distribution chart toward the end coordinates (1, d). ) Is determined whether or not the frequency C corresponding to () is equal to or greater than the threshold value Cp. However, instead of the line segment lineh, the coordinates (x, d) correspond to the coordinates (x, d) in order from the predetermined coordinates (x, d) between the approximate line line L3 and the approximate line line R3 toward the end coordinates (1, d). It may be determined whether or not the frequency C is greater than or equal to the threshold Cp.

また、消失点検出部582によって検出された消失点Pに基づいて上述の判定を行ってもよい。具体的には、度数分布図において最も大きいdxy座標に係る小領域Pxyのうち中央に位置する小領域Pxyと、消失点Pとを結んだ線分lineh’をlinehの代わりに用いる。消失点Pは無限遠に存在するものであるからd=0であること及び消失点検出部582によって消失点Pのx座標が検出されていることから、図9に示されるように度数分布図上の消失点の位置Pは度数分布図上に表すことができ、これによりlineh’を算出すればよい。 Further, the above-described determination may be performed based on the vanishing point Pv detected by the vanishing point detection unit 582. Specifically, a line segment lineh ′ connecting the small area P xy located in the center of the small areas P xy related to the largest d xy coordinates in the frequency distribution diagram and the vanishing point P v is used instead of line h. . Since the x-coordinate of the vanishing point P v vanishing point P v from being present at infinity by and vanishing point detecting section 582 that is d = 0 is detected, the frequency as shown in FIG. 9 The vanishing point position Pv on the distribution chart can be represented on the frequency distribution chart, and lineh ′ can be calculated based on this.

また、判定部583によってカーブ方向が判定された場合、カーブ方向に応じて上述の判定を行ってもよい。具体的には、カーブ方向判定部58によって路面が右方向にカーブしていると判定された場合、度数分布図上に表された消失点Pを通りlineL3に平行な線分lineh’’を算出し、これをlinehの代わりに用いる。なお、ここではlineL3に平行な線分を用いているが、これに限るものではなく、カーブ方向に傾きをもつ線分を広く用いることが可能である。また、カーブ方向判定部58によって路面が右方向にカーブしていると判定された場合、度数分布図上に表された消失点Pを通りlineR3に平行な線分lineh’’を算出し、これをlinehの代わりに用いる。 In addition, when the curve direction is determined by the determination unit 583, the above-described determination may be performed according to the curve direction. Specifically, when the curve direction determination unit 58 determines that the road surface is curved in the right direction, the line segment lineh ″ passing through the vanishing point P v represented on the frequency distribution map and parallel to the line L3 is obtained. And use this instead of lineh. Although a line segment parallel to lineL3 is used here, the present invention is not limited to this, and a line segment having an inclination in the curve direction can be widely used. Further, when the curve direction determination unit 58 determines that the road surface is curved in the right direction, the line segment lineh '' passing through the vanishing point Pv represented on the frequency distribution map and parallel to the lineR3 is calculated, This is used instead of lineh.

このように度数判定部572は、消失点Pに基づいて度数Cが所定の値Cp以上であるか否かを判定するため、近似曲線lineL4と近似曲線lineR4が正確に算出されないことがあっても、走行領域検出部57は効率的に走行領域を検出することができる。 Thus power determination unit 572, since the power C based on the vanishing point P v to determine whether it is greater than a predetermined value Cp, there can approximate curve lineL4 the approximate curve lineR4 is not accurately calculated In addition, the travel area detection unit 57 can efficiently detect the travel area.

なお、上記消失点に基づいた判定においては、消失点と度数分布図におけるdxy座標が最も大きい小領域Pxyによって算出される線分を用いているが、dxy座標が最も大きい小領域Pxyである必要はなく、度数分布図におけるdxy座標が所定の値となる小領域Pxyを線分lineh’の算出に用いてもよい。ここでの所定の値とは、経験的に定められる最大の視差dxy等である。 In the determination based on the vanishing point, the line segment calculated by the vanishing point and the small region Pxy having the largest d xy coordinate in the frequency distribution diagram is used, but the small region P having the largest dxy coordinate is used. The small area P xy in which the d xy coordinate in the frequency distribution diagram has a predetermined value may be used for calculating the line segment line ′. The predetermined value here is the maximum parallax d xy determined empirically.

図9の視差分布図に表されるように、dxy座標が大きい小領域PxyにおいてはlineL3、LineR3が存在しない場合がある。このような場合に度数判定部572が既に説明した判定をしても判定部572を実現するCPU32の負荷が高くなってしまう。したがって、このような場合にはdxy座標が所定の値未満となる小領域Pxyのみに対して度数判定部572が判定をすることによって効率的に処理することができる。これにより、画像処理装置のCPU32等の負荷を軽減することが可能となる。 As represented in the parallax distribution diagram of FIG. 9, in the d xy coordinate is the maximum subregion P xy there may be no lineL3, LineR3. In such a case, even if the frequency determination unit 572 makes the determination already described, the load on the CPU 32 that implements the determination unit 572 increases. Therefore, in such a case, the frequency determination unit 572 can efficiently process only the small region P xy in which the d xy coordinates are less than a predetermined value. As a result, it is possible to reduce the load on the CPU 32 of the image processing apparatus.

また、線分linehではなく左白線エッジ候補画素Pelの近似直線LineL3上の座標から端部の座標(1,d)に向かって順に各座標(x,d)に対応する順に各座標(x,d)に対応する度数Cが閾値Cp以上であるか否かを判定してもよい。左白線エッジ候補領域Pelと右白線エッジ候補領域Perの度数分布図における座標の間にある座標(x,d)に係る小領域Pxyは建物等でないことが想定される。そのため、度数分布図において左白線エッジ候補領域Pelと右白線エッジ候補領域Perの間にない座標(x,d)の度数Cのみについて閾値Cp以上であるか否かを判定する処理を行えばCPUの負荷を削減することが可能となる。 Each in the order corresponding to the coordinates of the end portion from the coordinates of the approximate line LineL3 left white line edge candidate pixels rather than the line segment lineh P el (1, d) a headed sequentially each coordinate (x, d) the coordinates (x , D), it may be determined whether or not the frequency C corresponding to or higher than the threshold Cp. It is assumed that the small area P xy related to the coordinates (x, d) between the coordinates in the frequency distribution diagram of the left white line edge candidate area P ele and the right white line edge candidate area P er is not a building or the like. Therefore, a process is performed to determine whether or not only the frequency C of coordinates (x, d) not between the left white line edge candidate region Pel and the right white line edge candidate region Per in the frequency distribution diagram is equal to or greater than the threshold Cp. For example, the load on the CPU can be reduced.

図22は画像処理システム1の機能構成図の他の例である。上記の実施形態において、白線視差決定部56は図22に示されるように白線確度決定部563を有することによって、白線エッジ候補領域Pが白線エッジを表す小領域である確からしさ(以降、白線確度という。)を判定するとしてもよい。ここで、白線確度決定部563が白線確度を判定する処理について図23を用いて説明する。図23は図6に示される図と同様であり、エッジ候補検出部55によって検出された白線エッジ候補領域P群のうち、一の白線エッジ候補領域P、及びその白線エッジ候補領域Pに隣接する3つの小領域Pe1、Pe2、Pe3に符号を付したものである。図23は、基準画像Iaの一部を拡大した図である。 FIG. 22 is another example of a functional configuration diagram of the image processing system 1. In the above embodiments, by having a white line reliability determining unit 563 as the white line parallax determining section 56 shown in FIG. 22, likelihood white line edge candidate region P e is a small region representing the white line edge (hereinafter, white It is also possible to determine the accuracy). Here, a process in which the white line accuracy determination unit 563 determines the white line accuracy will be described with reference to FIG. Figure 23 is similar to the view shown in FIG. 6, of the white line edge candidate area P e group detected by the edge candidate detection unit 55, the one white line edge candidate region P e, and the white line edge candidate region P e The three small regions P e1 , P e2 , and P e3 adjacent to are denoted by reference numerals. FIG. 23 is an enlarged view of a part of the reference image Ia.

まず、白線確度決定部563はステップS4またはステップS5で図23(1)に示されるエッジ候補領域Pが検出されたら、図23(2)に示される白線エッジ候補領域Pとx軸方向に外側で隣接する3つの小領域Pe1、Pe2、Pe3について視差を比較する。具体的には、白線エッジ候補領域Pの視差dと、小領域Pe1、Pe2、Pe3の視差de1、de2、de3それぞれとの差d−de1、d−de2、d−de3(それぞれ、以降においては視差差分Δd、Δd、Δdという)を算出する。そして、視差差分Δd、Δd、Δdそれぞれが所定の値、たとえば10以下であるか否かを判定する。図23(2)に示される例においてはd=132、de1=130、de2=128、de3=132であるから、Δd=132−130=2、Δd=132−128=4、Δd=132−132=0となる。そして、これらの値が所定の値以下、すなわち10以下であるか否かを判定する。 First, when the white line reliability determining unit 563 edge candidate region P e shown in FIG. 23 (1) in step S4 or step S5 is detected, the white line edge candidate region P e and x-axis direction shown in FIG. 23 (2) The parallax is compared for three small regions P e1 , P e2 , and P e3 that are adjacent to each other outside. Specifically, the parallax d e of the white line edge candidate region P e, small regions P e1, P e2, the difference between the disparity of P e3 d e1, d e2, d e3 each d e -d e1, d e - d e2 , d e −d e3 (hereinafter referred to as parallax differences Δd 1 , Δd 2 , and Δd 3 ) are calculated. Then, it is determined whether each of the parallax differences Δd 1 , Δd 2 , Δd 3 is a predetermined value, for example, 10 or less. In the example shown in FIG. 23 (2), since d e = 132, d e1 = 130, d e2 = 128, and d e3 = 132, Δd 1 = 132−130 = 2 and Δd 2 = 132−128 =. 4, Δd 3 = 132−132 = 0. Then, it is determined whether or not these values are not more than a predetermined value, that is, not more than 10.

視差差分Δd、Δd、Δdがいずれも所定の値以下である場合、白線確度決定部563は、白線エッジ候補領域Pが白線領域Pであると判定する。また、視差差分Δd、Δd、Δdのいずれかが所定の範囲でない場合、白線確度決定部563は、白線エッジ候補領域Pが白線領域Pではないと判定する。図23に示される例においては、上述のとおり視差差分Δd、Δd、Δdはいずれも10以下であるため白線確度決定部563は、白線エッジ候補領域Pが白線領域Pであると判定する。さらに、これらの判定を全ての白線エッジ候補領域Pについて行い、白線領域Pであると判定されたエッジ候補領域Pのみを用いて回帰直線算出部561が回帰直線を算出する処理を行う。 Parallax difference [Delta] d 1, [Delta] d 2, if none is [Delta] d 3 is less than a predetermined value, the white line reliability determining unit 563 determines that the white line edge candidate region P e is the white line area P w. Also, if the disparity difference [Delta] d 1, [Delta] d 2, one of [Delta] d 3 is not a predetermined range, the white line reliability determining unit 563 determines that the white line edge candidate region P e is not a white line area P w. In the example shown in FIG. 23, the parallax difference [Delta] d 1 as described above, [Delta] d 2, [Delta] d 3 is the white line reliability determining unit 563 because it is either 10 or less, the white line edge candidate region P e is a white line area P w Is determined. Furthermore, these determination performed for all of the white line edge candidate region P e, the regression line calculation section 561 performs a process for calculating a regression line using only the edge candidate region P e which is determined to be the white line area P w .

路面における白線はx軸方向に幅がある帯状の部分である。そのため、白線エッジ候補領域Pから所定の幅(上記の例ではx軸方向に隣接する3つの小領域Pxy)における視差de1、de2、de3が白線エッジ候補領域Pにおける視差dに近似している値である場合、これらの小領域Pxyが表す被写体Sは互いに近傍にあることを表している。すなわち白線エッジ候補領域Pが路面上にある白線を表すものである確度が高いと考えられる。よって、このような確度が高い白線エッジ候補領域Pのみを用いることによって走行領域検出部57はより精度の高い路面判定を行うことが可能となる。 The white line on the road surface is a band-shaped portion having a width in the x-axis direction. Therefore, parallax disparity d e1, d e2, d e3 in white line edge candidate area P e from the predetermined width (three small regions P xy In the above example adjacent to the x-axis direction) in the white line edge candidate region P e d When the value is close to e , it indicates that the subjects S represented by these small regions P xy are close to each other. That is considered white line edge candidate region P e is a high probability is representative of the white line present on the road surface. Therefore, the travel area detection unit 57 by such accuracy is used only high white line edge candidate region P e becomes possible to perform more accurate road determined.

なお、上記の例では隣接する3つの小領域を用いて、白線エッジ候補領域Pの確度を判定したが、撮像レンズ11aおよび撮像レンズ11bの画角、解像度、白線の種類等により判定に用いられる小領域の数を決定するのが好ましい。 In the above example with three small areas adjacent, used for the determination was determined the accuracy of the white line edge candidate region P e, the angle of view of the imaging lens 11a and an imaging lens 11b, the resolution, the type of the white line It is preferred to determine the number of subregions to be made.

また、本実施形態では、基準画像Iaのy座標一定の小領域Pxy群において、中央の小領域Pxyから左端の小領域Pxyに向けて順に、エッジ候補検出部55が輝度差ΔLの算出及び判定を行うとしているが、中央の小領域Pxyから所定数の小領域Pxyおきに左端の小領域Pxyに向けて輝度差ΔLの算出及び判定を行うとしてもよい。 In the present embodiment, in the small region P xy group having a constant y coordinate of the reference image Ia, the edge candidate detection unit 55 sequentially changes the luminance difference ΔL from the central small region P xy toward the leftmost small region P xy . calculated and it is to perform the determination, it may perform the calculation and determination of the luminance difference ΔL toward the center of the small region P xy at the left end of the small region P xy to a predetermined number of small regions P xy intervals.

また、本実施形態では白線エッジを検出する処理を行っているが、ここで検出する対象は白色の帯状の部分ではなく、路面において車道と歩道の境界、または車線間の境界を表すために用いられる他の色の帯状の部分であってもよい。   Further, in the present embodiment, processing for detecting a white line edge is performed, but the object to be detected here is not a white belt-shaped portion, but is used to represent a boundary between a roadway and a sidewalk or a boundary between lanes on a road surface. It may be a belt-like portion of other colors.

また、本実施形態の<エッジ候補領域の第一の検出処理>では、エッジ候補検出部55は基準画像Iaの中央にある小領域Pxy(x座標640に位置する小領域)からx軸方向に左端及び右端の小領域Pxyに向けて順に輝度差ΔLの算出及び輝度差ΔLに基づく判定を行っている。しかし、エッジ候補検出部55は中央の小領域Pxyではなく他の小領域Pxyから順に算出及び判定を行ってもよい。基準画像Iaの特徴に応じてエッジ候補領域Pが早く検出できるように算出及び判定を行うように適宜設定することが好ましい。 In the <first detection process of edge candidate area> of the present embodiment, the edge candidate detection unit 55 starts from the small area P xy (small area located at the x coordinate 640) in the center of the reference image Ia in the x-axis direction. The luminance difference ΔL is calculated and the determination based on the luminance difference ΔL is sequentially performed toward the left end and the right end small area P xy . However, the edge candidate detection unit 55 may perform calculation and determination sequentially from other small regions P xy instead of the central small region P xy . It is preferable to appropriately set so as to perform the calculation and determination so as to detect early edge candidate region P e in accordance with the features of the reference image Ia.

また、本実施形態においては撮像装置10、信号変換装置20及び画像処理装置30が一つの筐体として構成されている。しかし、別の筐体として独立したステレオカメラが撮像装置10及び信号変換装置20を有し、画像処理装置30が別の筐体として構成されてもよい。   In the present embodiment, the imaging device 10, the signal conversion device 20, and the image processing device 30 are configured as one casing. However, an independent stereo camera as another housing may include the imaging device 10 and the signal conversion device 20, and the image processing device 30 may be configured as another housing.

また、本実施形態では画像処理システム1を自動車に搭載するものとしているが、自動車の他に車両、船舶、航空機、または産業用ロボット等を例とする移動装置に搭載してもよい。   In the present embodiment, the image processing system 1 is mounted on a vehicle. However, the image processing system 1 may be mounted on a mobile device such as a vehicle, a ship, an aircraft, or an industrial robot in addition to the vehicle.

1 画像処理システム
10 撮像装置
11 撮像レンズ
12 絞り
13 画像センサ
20 信号処理部
21 CDS
22 AGC
23 ADC
24 フレームメモリ
30 画像処理装置
31 DSP
32 CPU
33 ROM
34 RAM
50 画像処理部
51 撮像部
52 信号変換部
53 視差算出部
55 エッジ候補検出部
56 白線視差決定部
561 回帰直線算出部
562 決定部
57 走行領域検出部
571 度数算出部
572 度数判定部
573 検出部
58 カーブ方向判定部
581 直線交点検出部
582 消失点検出部
583 判定部
DESCRIPTION OF SYMBOLS 1 Image processing system 10 Imaging device 11 Imaging lens 12 Aperture 13 Image sensor 20 Signal processing part 21 CDS
22 AGC
23 ADC
24 frame memory 30 image processing device 31 DSP
32 CPU
33 ROM
34 RAM
DESCRIPTION OF SYMBOLS 50 Image processing part 51 Image pick-up part 52 Signal conversion part 53 Parallax calculation part 55 Edge candidate detection part 56 White line parallax determination part 561 Regression straight line calculation part 562 Determination part 57 Travel area detection part 571 Frequency calculation part 572 Frequency determination part 573 Detection part 58 Curve direction determination unit 581 Straight line intersection detection unit 582 Vanishing point detection unit 583 Determination unit

特開平5−265547号公報JP-A-5-265547 Proceedings of the fifth international Conference on 3D Digital Imaging and Modeling 1550-6185/05 $20.00 2005 IEEEProceedings of the fifth international Conference on 3D Digital Imaging and Modeling 1550-6185 / 05 $ 20.00 2005 IEEE

Claims (11)

複数の境界が撮像された複数の画像を処理する画像処理装置であって、
前記画像に撮像されている境界領域を検出する境界領域検出手段と、
複数の前記画像を構成する小領域の視差を算出する視差算出手段と、
前記視差算出手段によって算出された前記視差について、前記画像の水平方向の位置ごとに前記小領域の視差の度数を算出する度数算出手段と、
前記境界領域検出手段によって検出された2つの境界領域の間にある所定の小領域である境界間小領域を算出する境界間小領域算出手段と、
前記境界間小領域から前記画像内における水平方向の端部の小領域に向かって、前記度数に基づいて走行領域を検出する前記走行領域検出手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that processes a plurality of images obtained by imaging a plurality of boundaries,
Boundary region detection means for detecting a boundary region captured in the image;
Parallax calculating means for calculating parallax of small areas constituting the plurality of images;
A frequency calculation means for calculating the parallax frequency of the small area for each horizontal position of the image with respect to the parallax calculated by the parallax calculation means;
An inter-boundary small area calculating means for calculating an inter-boundary small area that is a predetermined small area between two boundary areas detected by the boundary area detecting means;
The running area detecting means for detecting the running area based on the frequency from the small area between the boundaries toward the small area at the end in the horizontal direction in the image;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記境界間小領域は鉛直方向の位置が同じ2つの前記境界領域の中点であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus according to claim 1, wherein the small area between the boundaries is a midpoint between the two boundary areas having the same vertical position.
請求項1に記載の画像処理装置であって、
前記境界間小領域は前記境界領域であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus according to claim 1, wherein the small area between the boundaries is the boundary area.
請求項1乃至3のいずれか一項に記載の画像処理装置であって、
前記度数算出手段によって算出された前記度数が所定の値以上であるか否かを判定する度数判定手段を有し、
前記度数判定手段によって前記度数が所定の値以上であると判定された前記小領域を物体領域とし、
前記画像内における左側の物体領域と右側の物体領域の間にある小領域を前記走行領域として検出することを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 3,
A frequency determination means for determining whether the frequency calculated by the frequency calculation means is equal to or greater than a predetermined value;
The small area determined by the frequency determination means that the frequency is greater than or equal to a predetermined value is defined as an object area,
An image processing apparatus, wherein a small area between a left object area and a right object area in the image is detected as the travel area.
請求項1乃至4のいずれか一項に記載の画像処理装置であって、
前記境界領域検出手段は、
前記画像を形成する画素の輝度に基づいて、前記境界領域を検出することを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 4,
The boundary area detecting means includes
An image processing apparatus, wherein the boundary region is detected based on a luminance of a pixel forming the image.
請求項1乃至5のいずれか一項に記載の画像処理装置であって、
前記境界領域検出手段は、
隣接する画素の輝度の差が所定の閾値以上である画素がある小領域を境界領域の候補として検出することを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 5,
The boundary area detecting means includes
An image processing apparatus that detects a small region having a pixel having a luminance difference between adjacent pixels equal to or greater than a predetermined threshold as a candidate for a boundary region.
請求項1乃至6のいずれか一項に記載の画像処理装置であって、
前記境界領域検出手段によって検出された2つの境界領域の交点である消失点を検出する消失点検出手段を有し、
前記消失点検出手段は、前記消失点検出手段によって前記画像が撮像された時刻の所定の時間前に撮像された画像において検出された消失点に基づいて、前記画像の境界領域を検出することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
Vanishing point detecting means for detecting a vanishing point that is an intersection of two boundary areas detected by the boundary area detecting means;
The vanishing point detecting unit detects a boundary region of the image based on a vanishing point detected in an image captured a predetermined time before the time when the image was captured by the vanishing point detecting unit. A featured image processing apparatus.
複数の境界が撮像された複数の画像を処理する画像処理装置が実行する画像処理方法であって、
前記画像に撮像されている境界領域を検出する境界領域検出工程と、
複数の前記画像を構成する小領域の視差を算出する視差算出工程と、
前記視差算出工程によって算出された前記視差について、前記画像の水平方向の位置ごとに前記小領域の視差の度数を算出する度数算出工程と、
前記境界領域検出工程によって検出された2つの境界領域の間にある所定の小領域である境界間小領域を算出する境界間小領域算出工程と、
前記境界間小領域から前記画像内における水平方向の端部の小領域に向かって、前記度数に基づいて走行領域を検出する前記走行領域検出工程と、
を含むことを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus that processes a plurality of images obtained by imaging a plurality of boundaries,
A boundary region detection step of detecting a boundary region captured in the image;
A parallax calculating step of calculating parallax of small areas constituting a plurality of the images;
A frequency calculation step of calculating the parallax frequency of the small area for each horizontal position of the image with respect to the parallax calculated by the parallax calculation step;
An inter-boundary small area calculating step of calculating an inter-boundary small area that is a predetermined small area between two boundary areas detected by the boundary area detecting step;
The running area detecting step of detecting the running area based on the frequency from the small area between the boundaries toward the small area at the horizontal end in the image;
An image processing method comprising:
複数の境界が撮像された複数の画像の処理を画像処理装置に実行させるための画像処理プログラムであって、
前記画像に撮像されている境界領域を検出する境界領域検出工程と、
複数の前記画像を構成する小領域の視差を算出する視差算出工程と、
前記視差算出工程によって算出された前記視差について、前記画像の水平方向の位置ごとに前記小領域の視差の度数を算出する度数算出工程と、
前記境界領域検出工程によって検出された2つの境界領域の間にある所定の小領域である境界間小領域を算出する境界間小領域算出工程と、
前記境界間小領域から前記画像内における水平方向の端部の小領域に向かって、前記度数に基づいて走行領域を検出する前記走行領域検出工程と、
を含むことを特徴とする画像処理プログラム。
An image processing program for causing an image processing apparatus to execute processing of a plurality of images obtained by imaging a plurality of boundaries,
A boundary region detection step of detecting a boundary region captured in the image;
A parallax calculating step of calculating parallax of small areas constituting a plurality of the images;
A frequency calculation step of calculating the parallax frequency of the small area for each horizontal position of the image with respect to the parallax calculated by the parallax calculation step;
An inter-boundary small area calculating step of calculating an inter-boundary small area that is a predetermined small area between two boundary areas detected by the boundary area detecting step;
The running area detecting step of detecting the running area based on the frequency from the small area between the boundaries toward the small area at the horizontal end in the image;
An image processing program comprising:
画像を撮像する撮像装置と、
複数の境界が撮像された複数の画像を処理する画像処理装置であって、
前記画像に撮像されている境界領域を検出する境界領域検出手段と、
複数の前記画像を構成する小領域の視差を算出する視差算出手段と、
前記視差算出手段によって算出された前記視差について、前記画像の水平方向の位置ごとに前記小領域の視差の度数を算出する度数算出手段と、
前記境界領域検出手段によって検出された2つの境界領域の間にある所定の小領域である境界間小領域を算出する境界間小領域算出手段と、
前記境界間小領域から前記画像内における水平方向の端部の小領域に向かって、前記度数に基づいて走行領域を検出する前記走行領域検出手段と、
を有する画像処理装置と、
を含むことを特徴とする画像処理システム。
An imaging device for capturing an image;
An image processing apparatus that processes a plurality of images obtained by imaging a plurality of boundaries,
Boundary region detection means for detecting a boundary region captured in the image;
Parallax calculating means for calculating parallax of small areas constituting the plurality of images;
A frequency calculation means for calculating the parallax frequency of the small area for each horizontal position of the image with respect to the parallax calculated by the parallax calculation means;
An inter-boundary small area calculating means for calculating an inter-boundary small area that is a predetermined small area between two boundary areas detected by the boundary area detecting means;
The running area detecting means for detecting the running area based on the frequency from the small area between the boundaries toward the small area at the end in the horizontal direction in the image;
An image processing apparatus having
An image processing system comprising:
請求項1乃至7のいずれか一項に記載の画像処理装置または請求項10に記載の画像処理システムを有することを特徴とする移動装置。   A moving apparatus comprising the image processing apparatus according to claim 1 or the image processing system according to claim 10.
JP2013111034A 2013-02-13 2013-05-27 Image processing apparatus, image processing method, image processing program, image processing system, and moving apparatus Active JP6252727B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013111034A JP6252727B2 (en) 2013-02-13 2013-05-27 Image processing apparatus, image processing method, image processing program, image processing system, and moving apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013025576 2013-02-13
JP2013025576 2013-02-13
JP2013111034A JP6252727B2 (en) 2013-02-13 2013-05-27 Image processing apparatus, image processing method, image processing program, image processing system, and moving apparatus

Publications (2)

Publication Number Publication Date
JP2014179052A true JP2014179052A (en) 2014-09-25
JP6252727B2 JP6252727B2 (en) 2017-12-27

Family

ID=51698897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013111034A Active JP6252727B2 (en) 2013-02-13 2013-05-27 Image processing apparatus, image processing method, image processing program, image processing system, and moving apparatus

Country Status (1)

Country Link
JP (1) JP6252727B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115147741A (en) * 2022-06-28 2022-10-04 慧之安信息技术股份有限公司 Auxiliary helicopter search and rescue method based on edge calculation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11345336A (en) * 1998-06-03 1999-12-14 Nissan Motor Co Ltd Obstacle detecting device
JP2008033750A (en) * 2006-07-31 2008-02-14 Fuji Heavy Ind Ltd Object inclination detector
JP2008158640A (en) * 2006-12-21 2008-07-10 Fuji Heavy Ind Ltd Moving object detection apparatus
JP2010020404A (en) * 2008-07-08 2010-01-28 Toshiba Corp Image processor and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11345336A (en) * 1998-06-03 1999-12-14 Nissan Motor Co Ltd Obstacle detecting device
JP2008033750A (en) * 2006-07-31 2008-02-14 Fuji Heavy Ind Ltd Object inclination detector
JP2008158640A (en) * 2006-12-21 2008-07-10 Fuji Heavy Ind Ltd Moving object detection apparatus
JP2010020404A (en) * 2008-07-08 2010-01-28 Toshiba Corp Image processor and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115147741A (en) * 2022-06-28 2022-10-04 慧之安信息技术股份有限公司 Auxiliary helicopter search and rescue method based on edge calculation

Also Published As

Publication number Publication date
JP6252727B2 (en) 2017-12-27

Similar Documents

Publication Publication Date Title
EP2400315B1 (en) Travel distance detection device and travel distance detection method
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
KR101820259B1 (en) Disparity value deriving device, movable apparatus, robot, disparity value producing method, and computer program
WO2013132947A1 (en) Distance calculation device and distance calculation method
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP6561512B2 (en) Parallax value deriving device, moving body, robot, parallax value deriving method, parallax value producing method, and program
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP2008158640A (en) Moving object detection apparatus
JP2017151535A (en) Image processing device, object recognition device, equipment control system, image processing method, and program
JP2008309519A (en) Object detection device using image processing
JP6337504B2 (en) Image processing apparatus, moving body, robot, device control method and program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP6252727B2 (en) Image processing apparatus, image processing method, image processing program, image processing system, and moving apparatus
US20190139177A1 (en) Device for detecting road surface state
JP6577595B2 (en) Vehicle external recognition device
JP6701905B2 (en) Detection device, parallax value derivation device, object recognition device, device control system, and program
JP2006072757A (en) Object detection system
JP4754434B2 (en) Road surface estimation device
JP6569416B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system
JP6064648B2 (en) Image processing apparatus, image processing method, image processing program, image processing system, and moving apparatus
JP6561688B2 (en) DETECTING DEVICE, DETECTING METHOD, IMAGING DEVICE, DEVICE CONTROL SYSTEM, AND PROGRAM
JP6111732B2 (en) Image processing apparatus, image processing method, image processing system, image processing program, and moving apparatus
JP2015215235A (en) Object detection device and object detection method
EP2919191B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171114

R151 Written notification of patent or utility model registration

Ref document number: 6252727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151