JP6313081B2 - In-vehicle image processing apparatus and vehicle system using the same - Google Patents

In-vehicle image processing apparatus and vehicle system using the same Download PDF

Info

Publication number
JP6313081B2
JP6313081B2 JP2014057391A JP2014057391A JP6313081B2 JP 6313081 B2 JP6313081 B2 JP 6313081B2 JP 2014057391 A JP2014057391 A JP 2014057391A JP 2014057391 A JP2014057391 A JP 2014057391A JP 6313081 B2 JP6313081 B2 JP 6313081B2
Authority
JP
Japan
Prior art keywords
road surface
state
vehicle
white line
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014057391A
Other languages
Japanese (ja)
Other versions
JP2015179482A (en
JP2015179482A5 (en
Inventor
健人 緒方
健人 緒方
將裕 清原
將裕 清原
智史 鈴木
智史 鈴木
尊史 萩
尊史 萩
吉孝 内田
吉孝 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2014057391A priority Critical patent/JP6313081B2/en
Priority to PCT/JP2015/050507 priority patent/WO2015141247A1/en
Publication of JP2015179482A publication Critical patent/JP2015179482A/en
Publication of JP2015179482A5 publication Critical patent/JP2015179482A5/ja
Application granted granted Critical
Publication of JP6313081B2 publication Critical patent/JP6313081B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、カメラ等の画像センサからの情報に基づいて対象物を検出し、検出結果に応じて警報や車両の挙動制御を実施する自動車のための車載用画像処理装置およびそれを用いた車両システムに関する。   The present invention relates to an in-vehicle image processing apparatus for an automobile that detects an object based on information from an image sensor such as a camera, and performs an alarm or vehicle behavior control according to the detection result, and a vehicle using the same About the system.

近年、カメラ、ソナーといったセンサを用いて車両を制御し、運転者をサポートするシステムの開発が進められている。たとえば、レーンを検出し、自車が逸脱する可能性が生じたときには警報によって運転者に注意を促し、さらに逸脱が避けられない状況になったときはブレーキやステアリングの制御により逸脱を防止するシステムや、駐車枠を検出し、運転者の駐車操作の一部あるいはすべてを自動で実施する自律駐車システム等が実用化されている。   In recent years, a system for supporting a driver by controlling a vehicle using a sensor such as a camera or a sonar has been developed. For example, a system that detects lanes and alerts the driver by warning when the vehicle is likely to deviate, and prevents deviation by controlling the brakes and steering when the situation becomes unavoidable In addition, an autonomous parking system that detects a parking frame and automatically performs part or all of a driver's parking operation has been put into practical use.

カメラを用いて駐車枠やレーンを構成する白線を検出する場合、ガードレールの影や電線の影が路面上に写り、白線と同程度の幅として見えるため白線と誤検知することがある。このような誤検知への対策として、たとえば、特許文献1には、車両に搭載されたカメラでレーンを検出する際に、基準領域を設定して路面輝度のヒストグラムを作成し、路面クラスタの輝度分布から外れているものを白線として検出する技術が記載されている。   When a white line constituting a parking frame or a lane is detected using a camera, a shadow of a guard rail or a shadow of an electric wire is reflected on the road surface and appears to be as wide as the white line. As a countermeasure against such erroneous detection, for example, in Patent Document 1, when a lane is detected by a camera mounted on a vehicle, a road surface brightness histogram is created by setting a reference region and a road surface brightness. A technique for detecting a white line that deviates from the distribution is described.

特開2006−268199号公報JP 2006-268199 A

しかしながら、例えば自車の後方から太陽光が射している場合は、基準領域の大半が自車の影がかかった路面となり、影による誤検知を除去することができない。また、雨天時は路面が濡れて遠方の情景が写りこむため、路面の輝度を正確にとらえることができない。   However, for example, when sunlight is shining from behind the vehicle, most of the reference area is a road surface shaded by the vehicle, and erroneous detection due to the shadow cannot be removed. In addition, when the road is raining, the road surface gets wet and a distant scene is reflected, so the brightness of the road surface cannot be accurately captured.

本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、白線等の対象物を検出する際に、路面の状態に応じた最適な基準に基づいて対象物の検出を実施する車載用画像処理装置およびそれを用いた車両システムを提供することである。   The present invention has been made in view of the above points, and the object of the present invention is to detect an object based on an optimum reference according to the road surface condition when detecting an object such as a white line. It is providing the vehicle-mounted image processing apparatus which implements, and a vehicle system using the same.

上記課題を解決する本発明の車載用画像処理装置は、路面上の対象物を検出する車載用画像処理装置であって、自車周囲を撮像した画像を取得する画像取得部と、該画像の自車近傍領域の輝度分布に基づいて自車周囲の路面状態を推定する路面状態推定部と、該路面状態に応じて対象物の判定方法を設定する判定方法設定部と、前記画像から前記対象物と推定される対象物候補を検出する対象物候補検出部と、前記判定方法を用いて前記対象物候補が前記対象物であるか否かを判定する対象物判定部とを有することを特徴としている。 Vehicle image processing apparatus of the present invention for solving the aforementioned problems is a vehicle image processing apparatus that detects an object on the road surface, an image acquisition unit that acquires an image by imaging the vehicle periphery, of the image A road surface state estimation unit that estimates a road surface state around the vehicle based on a luminance distribution in the vicinity of the vehicle, a determination method setting unit that sets a determination method of an object according to the road surface state, and the target A target candidate detection unit that detects a target candidate that is estimated as a target, and a target determination unit that determines whether the target candidate is the target using the determination method. It is said.

本発明によれば、路面の状態を推定し、その推定した路面状態に応じて設定された判定方法を用いて対象物の判定を行うので、路面の一部を対象物と誤って検出することを防ぐことができ、これに基づいて信頼度の高い制御を実施する車両システムを提供することができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   According to the present invention, the road surface state is estimated, and the object is determined using the determination method set according to the estimated road surface state, so that a part of the road surface is erroneously detected as the object. Therefore, it is possible to provide a vehicle system that performs highly reliable control based on this. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

第1実施の形態における車載用画像処理装置のブロック図。The block diagram of the vehicle-mounted image processing apparatus in 1st Embodiment. 第1実施の形態における画像取得部の処理の説明図。Explanatory drawing of the process of the image acquisition part in 1st Embodiment. 第1実施の形態における自車近傍領域の説明図。Explanatory drawing of the own vehicle vicinity area | region in 1st Embodiment. 均一状態とその輝度ヒストグラムの一例を模式的に示す図。The figure which shows an example of a uniform state and its luminance histogram typically. 日陰日向状態とその輝度ヒストグラムの一例を模式的に示す図。The figure which shows typically an example of a shade sunlight state and its luminance histogram. その他の明暗分離状態とその輝度ヒストグラムの一例を模式的に示す図。The figure which shows typically an example of another brightness-and-dark separation state and its luminance histogram. 反射状態とその輝度ヒストグラムの一例を模式的に示す図。The figure which shows an example of a reflection state and its luminance histogram typically. 複雑状態とその輝度ヒストグラムの一例を模式的に示す図。The figure which shows typically an example of a complicated state and its brightness | luminance histogram. 第1実施の形態における路面状態推定部の処理を表すフローチャート。The flowchart showing the process of the road surface state estimation part in 1st Embodiment. 均一状態の輝度ヒストグラムと単一ガウス分布と両者の誤差を示す図。The figure which shows the difference | error of the brightness | luminance histogram of a uniform state, single Gaussian distribution, and both. 日陰日向状態の輝度ヒストグラムと単一ガウス分布と両者の誤差を示す図。The figure which shows the difference | error of the brightness | luminance histogram and single Gaussian distribution of a shade sunlight state. 反射状態の輝度ヒストグラムと単一ガウス分布と両者の誤差を示す図。The figure which shows the difference | error of the brightness | luminance histogram of a reflective state, single Gaussian distribution, and both. 複雑状態の輝度ヒストグラムと単一ガウス分布と両者の誤差を示す図。The figure which shows the difference | error of the luminance histogram of a complicated state, single Gaussian distribution, and both. 均一状態の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。The figure which shows the difference | error of the brightness | luminance histogram of a uniform state, mixed Gaussian distribution, and both. 日陰日向状態の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。The figure which shows the difference | error of the brightness | luminance histogram and mixed Gaussian distribution of a shade sunlight state. 反射状態の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。The figure which shows the difference | error of the brightness | luminance histogram of a reflection state, mixed Gaussian distribution, and both. 複雑状態の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。The figure which shows the difference | error of the brightness | luminance histogram of a complicated state, mixed Gaussian distribution, and both. 第1実施の形態における路面状態推定部の処理の説明図。Explanatory drawing of the process of the road surface state estimation part in 1st Embodiment. 第1実施の形態における白線候補検出部の処理を表すフローチャート。The flowchart showing the process of the white line candidate detection part in 1st Embodiment. 第1実施の形態における白線判定部の処理の一部を表すフローチャート。The flowchart showing a part of process of the white line determination part in 1st Embodiment. 白線の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。The figure which shows the brightness | luminance histogram of a white line, mixing Gaussian distribution, and the error of both. 日陰中の日向の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。The figure which shows the difference | error of the brightness | luminance histogram of a sunshine in a shade, mixed Gaussian distribution, and both. 第1実施の形態における白線判定部の処理の一部を表すフローチャート。The flowchart showing a part of process of the white line determination part in 1st Embodiment. 俯瞰画像において白線候補が放射線状か否かを説明する図。The figure explaining whether a white line candidate is a radial form in a bird's-eye view image. 第1実施の形態における白線判定部の処理の一部を表すフローチャート。The flowchart showing a part of process of the white line determination part in 1st Embodiment. 第1実施の形態における駐車枠認識部の処理を表すフローチャート。The flowchart showing the process of the parking frame recognition part in 1st Embodiment. 第1実施の形態における駐車枠認識部の処理の説明図。Explanatory drawing of the process of the parking frame recognition part in 1st Embodiment. 第1実施の形態の別形態のブロック図。The block diagram of another form of 1st Embodiment. 第1実施の形態における駐車補助制御部の処理を表すフローチャート。The flowchart showing the process of the parking assistance control part in 1st Embodiment. 第2実施の形態における車載用画像処理装置のブロック図。The block diagram of the vehicle-mounted image processing apparatus in 2nd Embodiment. 第2実施の形態における汚れ検出部の処理を表すフローチャート。The flowchart showing the process of the stain | pollution | contamination detection part in 2nd Embodiment. 第2実施の形態における白線判定部の処理の一部を表すフローチャート。The flowchart showing a part of process of the white line determination part in 2nd Embodiment. 第2実施の形態における白線判定部の処理の一部を表すフローチャート。The flowchart showing a part of process of the white line determination part in 2nd Embodiment. 第2実施の形態における白線判定部の処理の一部を表すフローチャート。The flowchart showing a part of process of the white line determination part in 2nd Embodiment. 第2実施の形態における駐車枠認識部の処理を表すフローチャート。The flowchart showing the process of the parking frame recognition part in 2nd Embodiment. 第2実施の形態における駐車補助制御部の処理を表すフローチャート。The flowchart showing the process of the parking assistance control part in 2nd Embodiment. 第3実施の形態における車載用画像処理装置のブロック図。The block diagram of the vehicle-mounted image processing apparatus in 3rd Embodiment. 第3実施の形態における障害物判定部の処理の一部を表すフローチャート。The flowchart showing a part of process of the obstacle determination part in 3rd Embodiment. 第3実施の形態における障害物判定部の処理の一部を表すフローチャート。The flowchart showing a part of process of the obstacle determination part in 3rd Embodiment. 第3実施の形態における障害物判定部の処理の説明図。Explanatory drawing of the process of the obstruction determination part in 3rd Embodiment. 第3実施の形態における車両制御部の処理を表すフローチャート。The flowchart showing the process of the vehicle control part in 3rd Embodiment.

<第一実施の形態>
以下、本発明の第一実施の形態について図面を用いて詳細に説明する。
<First embodiment>
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.

図1は、第一実施の形態における車載用画像処理装置1000のブロック図である。
車載用画像処理装置1000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1001〜1004で撮影した画像内から対象物を検出するためのものであり、本実施の形態では、自車周囲の路面に白線によって描かれた駐車枠を検出するように構成されている。複数のカメラ1001〜1004は、少なくとも路面を含むように自車周囲を全周に亘って撮像可能な位置に取り付けられており、本実施の形態では、車両の前部、左側部、右側部、後部にそれぞれ取り付けられている。なお、カメラの個数および取付位置は、自車周囲の日陰日向を検出可能とする必要があるので、最少で2個のカメラを互いに離反する方向に向かって撮像するように取り付けられていればよい。
FIG. 1 is a block diagram of an in-vehicle image processing apparatus 1000 according to the first embodiment.
The in-vehicle image processing apparatus 1000 is incorporated in a camera device mounted on an automobile, an integrated controller, or the like, and is used for detecting an object from images captured by the cameras 1001 to 1004 of the camera device. In the present embodiment, a parking frame drawn by a white line on the road surface around the host vehicle is detected. The plurality of cameras 1001 to 1004 are attached at positions where the entire periphery of the vehicle can be imaged so as to include at least the road surface. In the present embodiment, the front part, the left part, the right part, Each is attached to the rear. Since the number of cameras and the mounting position need to be able to detect the shaded sun around the vehicle, it is sufficient that at least two cameras are mounted so as to capture images in directions away from each other. .

車載用画像処理装置1000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期Tで繰り返し処理を実行する。車載用画像処理装置1000は、図1に示すように、画像取得部1021と、路面状態推定部1031と、判定方法設定部1041と、白線候補検出部(対象物候補検出部)1051と、白線判定部(対象物判定部)1061と、駐車枠認識部1071と、を有する。   The in-vehicle image processing apparatus 1000 is configured by a computer having a CPU, a memory, an I / O, and the like. A predetermined process is programmed and the process is repeatedly executed at a predetermined cycle T. As shown in FIG. 1, the in-vehicle image processing apparatus 1000 includes an image acquisition unit 1021, a road surface state estimation unit 1031, a determination method setting unit 1041, a white line candidate detection unit (object candidate detection unit) 1051, and a white line A determination unit (object determination unit) 1061 and a parking frame recognition unit 1071 are included.

画像取得部1021は、図2に示すように、複数のカメラ1001〜1004から、自車周囲を撮影した画像1011〜1014を取得し、幾何変換・合成することにより、上空の仮想視点から見下ろした俯瞰画像1015を生成し、RAM上に記憶する。幾何変換・合成のパラメータは車両出荷時に行うキャリブレーションにより、あらかじめ設定されているものとする。なお、俯瞰画像1015は2次元配列であり、IMGSRC[x][y]で表すものとする。x、yはそれぞれ画像の座標を示す。   As shown in FIG. 2, the image acquisition unit 1021 acquires images 1011 to 1014 obtained by photographing the surroundings of the host vehicle from a plurality of cameras 1001 to 1004, and looks down from a virtual viewpoint in the sky by geometric conversion and synthesis. An overhead image 1015 is generated and stored on the RAM. It is assumed that geometric transformation / synthesis parameters are set in advance by calibration performed at the time of vehicle shipment. Note that the bird's-eye view image 1015 is a two-dimensional array and is represented by IMGSRC [x] [y]. x and y indicate the coordinates of the image, respectively.

路面状態推定部1031は、俯瞰画像1015内の自車近傍領域1032から輝度ヒストグラムHST[b]を取得し、自車周囲の路面状態が予め設定された複数の路面状態のいずれに属するのかを推定する。自車近傍領域1032は、俯瞰画像1015内で自車周囲の近傍に設定される領域であり、自車近傍領域1032には必ず自車周囲の路面が撮像されているとみなすことができる。輝度ヒストグラムHST[b]は1次元配列であり、bはヒストグラムのビンを表す。本実施例では、路面状態として[均一状態]、[明暗分離状態]、[日陰日向状態]、[複雑状態]の4種類のうちのいずれに属するのかを推定する。   The road surface state estimation unit 1031 acquires the luminance histogram HST [b] from the own vehicle vicinity region 1032 in the bird's-eye view image 1015, and estimates whether the road surface state around the own vehicle belongs to a plurality of preset road surface states. To do. The own vehicle vicinity area 1032 is an area set in the vicinity of the own vehicle in the bird's-eye view image 1015, and it can be considered that the road surface around the own vehicle is always captured in the own vehicle vicinity area 1032. The luminance histogram HST [b] is a one-dimensional array, and b represents a histogram bin. In the present embodiment, it is estimated which of the four types of road surface conditions, ie, [uniform state], [bright / dark separation state], [shade-sunshine state], and [complex state].

判定方法設定部1041は、路面状態推定部1031にて推定した路面状態に応じて、白線を判定するための判定方法を設定する。本実施例においては、路面状態が[均一状態]、[明暗分離状態]、[日陰日向状態]の場合は輝度ヒストグラムから得られる輝度の範囲、もしくは輝度ヒストグラムのガウスモデルを用いた判定方法を設定し、路面状態が[複雑状態]の場合は画像のパターンを用いた判定方法を設定する。   The determination method setting unit 1041 sets a determination method for determining a white line according to the road surface state estimated by the road surface state estimation unit 1031. In the present embodiment, when the road surface state is [uniform state], [bright / dark separation state], or [shade-sunshine state], a determination is made using a luminance range obtained from the luminance histogram or a Gaussian model of the luminance histogram. When the road surface state is [complex state], a determination method using an image pattern is set.

白線候補検出部1051は、俯瞰画像1015から、白線候補LC[n]を検出する。白線候補LC[n]は、白線候補の座標等の情報を持つテーブルを要素とする1次元配列であり、nは複数検出した場合のIDを表す。   The white line candidate detection unit 1051 detects a white line candidate LC [n] from the overhead image 1015. The white line candidate LC [n] is a one-dimensional array whose elements are tables having information such as the coordinates of white line candidates, and n represents an ID when a plurality of white line candidates are detected.

白線判定部1061は、白線候補LC[n]に対して、判定方法設定部1041で設定した判定方法に基づき、白線又は路面のいずれであるかを判定し、白線LN[m]を決定する。白線LN[m]は、白線の座標等の情報を持つテーブルを要素とする1次元配列であり、mは複数検出した場合のIDを表す。   The white line determination unit 1061 determines whether the white line candidate LC [n] is a white line or a road surface based on the determination method set by the determination method setting unit 1041, and determines the white line LN [m]. The white line LN [m] is a one-dimensional array having a table having information such as the coordinates of the white line as an element, and m represents an ID when a plurality is detected.

駐車枠認識部1071は、白線LN[m]に基づいて、駐車枠PS[k]を検出する。駐車枠PS[k]は、駐車枠の座標等の情報を持つテーブルを要素とする1次元配列であり、kは複数検出した場合のIDを表す。   The parking frame recognition unit 1071 detects the parking frame PS [k] based on the white line LN [m]. The parking frame PS [k] is a one-dimensional array having a table having information such as coordinates of the parking frame as elements, and k represents an ID when a plurality of detections are detected.

[路面状態推定部]
つぎに、図3−1から図3−6、図4−1から図4−9、図5を用いて、路面状態推定部1031における処理の内容について説明する。
[Road surface state estimation unit]
Next, the contents of processing in the road surface state estimation unit 1031 will be described with reference to FIGS. 3-1 to 3-6, FIGS.

図4−1は路面状態推定部1031の処理の流れを示したフローチャートであり、以下、処理の詳細について説明する。まず、ステップS401にて、自車近傍領域から輝度ヒストグラムを作成する。   FIG. 4A is a flowchart showing a flow of processing of the road surface state estimation unit 1031. Hereinafter, details of the processing will be described. First, in step S401, a luminance histogram is created from the vehicle vicinity area.

図3−1は、自車近傍領域1032の説明図であり、図3−1(a)〜図3−1(c)では、図面の上側が車両前方を示す。ここでは、図3−1(a)に示すように自車近傍領域1032を固定とする場合、および、図3−1(b)、(c)に示すように、自車挙動に応じて自車近傍領域1032を可変にする場合の両方について説明する。   FIG. 3A is an explanatory diagram of the vehicle vicinity area 1032, and in FIGS. 3A to 3C, the upper side of the drawing indicates the front side of the vehicle. Here, when the own vehicle vicinity area 1032 is fixed as shown in FIG. 3-1 (a), and as shown in FIGS. 3-1 (b) and (c), Both cases where the vehicle vicinity area 1032 is variable will be described.

図3−1(a)に示すように、自車近傍領域1032を固定とする場合は、俯瞰画像1015内の中心付近に設定する。自車近傍領域1032の内方に示される黒い部分は、カメラ1001〜1004で撮像できない部分であるため、この領域は自車近傍領域1032の対象外とする。図3−1(b)、(c)に示すように、自車挙動に応じて自車近傍領域1032を可変にする場合は、車両の変速機のシフトポジション情報を取得し、その情報に基づいて、自車が前進している場合は図3(b)のように自車後方を大きく、自車が後進している場合は図3−1(c)のように自車前方を大きく設定する。同様に、中心部分は対象外とする。   As shown in FIG. 3A, when the own vehicle vicinity region 1032 is fixed, it is set near the center in the overhead image 1015. Since the black part shown inside the own vehicle vicinity area 1032 is a part which cannot be imaged with the cameras 1001 to 1004, this area is excluded from the subject of the own vehicle vicinity area 1032. As shown in FIGS. 3-1 (b) and (c), when the own vehicle vicinity region 1032 is made variable according to the own vehicle behavior, shift position information of the transmission of the vehicle is acquired and based on the information. When the host vehicle is moving forward, the rear side of the host vehicle is set larger as shown in FIG. 3B, and when the host vehicle is moving backward, the front side of the host vehicle is set larger as shown in FIG. To do. Similarly, the central portion is excluded.

図3−1(d)は、自車近傍領域1032から取得した輝度ヒストグラムHST[b]の例である。輝度ヒストグラムHST[b]は、画像の輝度の頻度を表し、横軸に輝度、縦軸に頻度を取った1次元グラフで表現される。   FIG. 3-1 (d) is an example of the brightness histogram HST [b] acquired from the own vehicle vicinity area 1032. The luminance histogram HST [b] represents the frequency of the luminance of the image, and is represented by a one-dimensional graph with the horizontal axis representing luminance and the vertical axis representing frequency.

図3−2から図3−6は、各路面状態とその輝度ヒストグラムの例を模式的に示す図である。図3−2は、均一状態とその輝度ヒストグラムの例を模式的に示す図、図3−3は、日陰日向状態とその輝度ヒストグラムの例を模式的に示す図、図3−4は、その他の明暗分離状態とその輝度ヒストグラムの例を模式的に示す図、図3−5は、反射状態とその輝度ヒストグラムの例を模式的に示す図、図3−6は、複雑状態とその輝度ヒストグラムの例を模式的に示す図である。   FIGS. 3-2 to 3-6 are diagrams schematically illustrating examples of each road surface state and its luminance histogram. Fig. 3-2 is a diagram schematically showing an example of a uniform state and its luminance histogram, Fig. 3-3 is a diagram schematically showing an example of a shaded and sunny state and its luminance histogram, and Fig. 3-4 is the others. FIG. 3-5 schematically illustrates an example of a reflection state and its luminance histogram, and FIG. 3-6 schematically illustrates an example of a complex state and its luminance histogram. FIG.

図3−2に示す俯瞰画像1015の路面は、日陰日向や影がなく、ほぼ単一の輝度を有するとみなすことが可能な均一状態である。このように、路面状態が均一状態であるときの輝度ヒストグラムは、路面領域の分布が大勢を占めるものとなり、一つの大きなピークを有する単峰性となる。   The road surface of the bird's-eye view image 1015 shown in FIG. 3-2 is in a uniform state that has no shade and shadow and can be regarded as having almost a single luminance. As described above, the luminance histogram when the road surface state is a uniform state has a large distribution of the road surface region, and is unimodal with one large peak.

図3−3(a)に示す俯瞰画像1015の路面は、日向に自車や建物の影が映り込んで路面の輝度が明暗に分かれている明暗分離状態の一種である日陰日向状態である。図3−4(a)に示す俯瞰画像1015の路面は、路面の輝度が道路工事等により明暗に分かれているその他の明暗分離状態である。図3−5(a)に示す俯瞰画像1015の路面は、雨等により濡れた路面に反射した構造物が映り込んでいる反射状態である。図3−6(a)に示す俯瞰画像1015の路面は、例えば複数の方向からの光や影が映り込み、輝度ヒストグラムを予め設定されている混合ガウス分布により近似することが困難な複雑状態である。   The road surface of the bird's-eye view image 1015 shown in FIG. 3-3 (a) is in a shaded and sunny state, which is a kind of light / dark separation state in which the shadow of the vehicle or building is reflected in the sun and the brightness of the road is divided into light and dark. The road surface of the bird's-eye view image 1015 shown in FIG. 3-4 (a) is another light / dark separation state in which the brightness of the road surface is divided into light and dark due to road construction or the like. The road surface of the bird's-eye view image 1015 shown in FIG. 3-5 (a) is a reflection state in which the structure reflected on the road surface wet by rain or the like is reflected. The road surface of the bird's-eye view image 1015 shown in FIG. 3-6 (a) is in a complicated state in which, for example, light and shadows from a plurality of directions are reflected, and it is difficult to approximate the luminance histogram by a preset Gaussian distribution. is there.

そのうち、図3−3(b)、図3−4(b)、図3−5(b)に示す、日陰日向状態、その他の明暗分離状態、反射状態の各輝度ヒストグラムは、それぞれ形状は異なるが概ね二つの大きなピークを有する二峰性となる。そして、図3−6(b)に示す複雑状態の輝度ヒストグラムには三つ以上の多くのピークが現れる。   Among them, the luminance histograms shown in FIGS. 3-3 (b), 3-4 (b), and 3-5 (b) are different in shape from each other in the shaded sunlight state, the other light / dark separation state, and the reflection state. Is generally bimodal with two large peaks. Then, three or more peaks appear in the luminance histogram in the complicated state shown in FIG. 3-6 (b).

つぎに、ステップS402にて、輝度ヒストグラムの分析を行う。分析は、輝度ヒストグラムHST[b]に対して1つのピークを有する単一ガウス分布もしくは2つのピークを有する混合ガウス分布による近似を行い、その誤差を求める。以下、分布数Gで表現される混合ガウス分布のパラメータである重みα_{1、2、・・・、G}、平均μ_{1、2、・・・、G}、分散σ_{1、2、・・・、G}をテーブルGPTBL(G)として表現する。ある分布を混合ガウス分布GPTBL(G)により近似する方法は、一般的にEMアルゴリズムが用いられる。この方法は公知であるため、ここでは説明を割愛する。   Next, in step S402, the luminance histogram is analyzed. In the analysis, the luminance histogram HST [b] is approximated by a single Gaussian distribution having one peak or a mixed Gaussian distribution having two peaks, and the error is obtained. Hereinafter, the weights α_ {1, 2,..., G}, the average μ_ {1, 2,..., G}, and the variance σ_ {1, 2 are the parameters of the mixed Gaussian distribution expressed by the distribution number G. ,..., G} are expressed as a table GPTBL (G). An EM algorithm is generally used as a method of approximating a certain distribution by the mixed Gaussian distribution GPTBL (G). Since this method is publicly known, the description is omitted here.

EMアルゴリズムにより近似する場合、ガウス分布の数Gを指定する必要があるため、本実施例ではG=1、2を用いることとし、G=1の近似誤差をErr(1)、G=2の近似誤差をErr(2)とする。輝度ヒストグラムHST[b]とガウス分布GPTBL(G)の誤差は,以下の式により演算を行う。   In the case of approximation by the EM algorithm, it is necessary to specify the number G of the Gaussian distribution. Therefore, in this embodiment, G = 1 and 2 are used, and the approximation error of G = 1 is Err (1) and G = 2. Let the approximation error be Err (2). The error between the luminance histogram HST [b] and the Gaussian distribution GPTBL (G) is calculated by the following equation.

Err(G)=Σ(b=0〜255):MIN(HSTNML[b],HSTMLD(G)[b])/MAX(HSTNML[b],HSTMLD(G)[b])
ここで、HSTNML[b]は、輝度ヒストグラムHST[b]を、その合計値が1となるように正規化したものである。HSTMLD(G)[b]は、テーブルGPTBL(G)より得られる分布であり、同様にその合計値が1となるように正規化したものである。
Err (G) = Σ (b = 0 to 255): MIN (HSTNML [b], HSTMLD (G) [b]) / MAX (HSTNML [b], HSTMLD (G) [b])
Here, HSTNML [b] is obtained by normalizing the luminance histogram HST [b] so that the total value thereof is 1. HSTMLD (G) [b] is a distribution obtained from the table GPTBL (G), and is normalized so that the total value thereof is also 1.

図3−2〜図3−5の例に対してG=1で近似した場合の例を図4−2〜図4−5に示す。図4−2(a)〜(c)は、図3−2に示す均一状態の路面に対してG=1で近似した場合の例である。図4−2(a)の輝度ヒストグラムに対し、EMアルゴリズムにより取得したG=1のガウス分布の重みα_1、平均μ_1、分散σ_1により表される分布が図4−2(b)となる。図4−2(a)と(b)の誤差Err(1)は、図4−2(c)に黒く示された領域の面積となる。   Examples in the case of approximating G = 1 with respect to the examples of FIGS. 3-2 to 3-5 are shown in FIGS. FIGS. 4-2 (a) to (c) are examples when the road surface in the uniform state shown in FIG. 3-2 is approximated by G = 1. For the luminance histogram in FIG. 4A, the distribution represented by the weight α_1, the average μ_1, and the variance σ_1 of the G = 1 Gaussian distribution obtained by the EM algorithm is shown in FIG. The error Err (1) in FIGS. 4-2 (a) and (b) is the area of the region shown in black in FIG. 4-2 (c).

同様に,図4−3(a)〜(c)は、図3−3に示す日陰日向状態の路面に対してG=1で近似した場合の例である。図4−3(a)の輝度ヒストグラムから算出したガウス分布が図4−3(b)となり、図4−3(a)と(b)の誤差Err(1)は、図4−3(c)に黒く示された領域の面積となる。以下、同様に図4−4(a)〜(c)は、図3−5に示す反射状態の路面に適用した例であり、図4−5(a)〜(c)は、図3−6に示す複雑状態の路面に適用した例である。   Similarly, FIGS. 4-3 (a) to (c) are examples in the case of approximating G = 1 with respect to the road surface in the shaded and sunny state shown in FIG. 3-3. The Gaussian distribution calculated from the luminance histogram of FIG. 4-3 (a) becomes FIG. 4-3 (b), and the error Err (1) of FIGS. 4-3 (a) and (b) is shown in FIG. 4-3 (c). ) Is the area of the region shown in black. Similarly, FIGS. 4-4 (a) to (c) are examples applied to the road surface in the reflective state shown in FIG. 3-5, and FIGS. 4-5 (a) to (c) are similar to FIG. 6 is an example applied to a road surface in a complicated state shown in FIG.

次に、図3−2〜図3−5の例に対してG=2で近似した場合の例を図4−6〜図4−9に示す。図4−6(a)〜(c)は、図3−2に示す均一状態の路面に対してG=2で近似した場合の例である。図4−6(a)の輝度ヒストグラムに対し、EMアルゴリズムにより取得したG=2のガウス分布の重みα_1、α_2、平均μ_1、μ_2、分散σ_1、σ_2により表される分布が図4−6(b)に太線で示されたものとなる。図4−6(a)と(b)の誤差Err(2)は、図4−6(c)にて黒く示された領域の面積となる。   Next, examples in the case of approximating G = 2 with respect to the examples of FIGS. 3-2 to 3-5 are shown in FIGS. 4-6 to 4-9. 4-6 (a) to (c) are examples in the case of approximating G = 2 with respect to the uniform road surface shown in FIG. 3-2. With respect to the luminance histogram of FIG. 4-6 (a), distributions represented by weights α_1, α_2, average μ_1, μ_2, variances σ_1, and σ_2 of the G = 2 Gaussian distribution obtained by the EM algorithm are shown in FIG. This is indicated by a thick line in b). The error Err (2) in FIGS. 4-6 (a) and (b) is the area of the region shown in black in FIG. 4-6 (c).

同様に,図4−7(a)〜(c)は、図3−3に示す日陰日向状態の路面に対してG=2で近似した場合の例である。図4−7(a)の輝度ヒストグラムから算出したガウス分布が図4−7(b)となり、図4−7(a)と(b)の誤差Err(1)は、図4−7(c)に黒く示された領域の面積となる。以下、同様に図4−8(a)〜(c)は、図3−5に示す反射状態の路面に適用した例であり、図4−9(a)〜(c)は、図3−6に示す複雑状態の路面に適用した例である。   Similarly, FIGS. 4-7 (a) to (c) are examples in the case of approximating G = 2 with respect to the road surface in the shaded and sunny state shown in FIG. 3-3. The Gaussian distribution calculated from the luminance histogram of FIG. 4-7 (a) becomes FIG. 4-7 (b), and the error Err (1) of FIGS. 4-7 (a) and (b) is shown in FIG. ) Is the area of the region shown in black. Similarly, FIGS. 4-8 (a) to (c) are examples applied to the reflective road surface shown in FIG. 3-5, and FIGS. 4-9 (a) to (c) are similar to FIGS. 6 is an example applied to a road surface in a complicated state shown in FIG.

以上図示したように、均一状態の路面のように単峰性のヒストグラムは、G=1の分布に対する誤差が小さくなる。一方、日陰日向状態の路面のように、二峰性のヒストグラムは、G=2の分布に対する誤差が小さくなる。さらに,複雑状態の路面のように、そのどちらにも該当しないヒストグラムは、いずれの近似に対してもその誤差が大きくなる。   As shown above, a unimodal histogram such as a uniform road surface has a smaller error with respect to the distribution of G = 1. On the other hand, the bimodal histogram, like the road surface in the shaded and sunny state, has a small error with respect to the distribution of G = 2. Furthermore, a histogram that does not correspond to either of them, such as a road surface in a complicated state, has a large error with respect to any approximation.

また、均一状態の路面のように単峰性のヒストグラムに対してG=2の分布を適用すると、G=1の誤差よりも小さくなる傾向がある。したがって、以下の判定では、先にG=1での近似の誤差を判定し、誤差が大きい場合のみ、G=2での近似の誤差を判定する構成としている。   In addition, when the distribution of G = 2 is applied to a unimodal histogram like a uniform road surface, the error tends to be smaller than the error of G = 1. Accordingly, in the following determination, the approximation error at G = 1 is determined first, and the approximation error at G = 2 is determined only when the error is large.

なお、2つのヒストグラムを比較する方法は種々存在するため、誤差Err(G)の演算に別な方法を用いても良い、例えば、Bhattacharyya距離を適用する場合、以下の式にて算出する。
Err(G)=1−Σ(b=0〜255):SQRT(HSTNML[b]・HSTMLD(G)[b])
Since there are various methods for comparing the two histograms, another method may be used for the calculation of the error Err (G). For example, when the Bhattacharya distance is applied, the calculation is performed using the following equation.
Err (G) = 1−Σ (b = 0 to 255): SQRT (HSTNML [b] · HSTMLD (G) [b])

つぎに、ステップS403において、輝度ヒストグラムHST[b]が単一のガウス分布GP(1)で近似可能であるかを判定する。ここでは、GP(1)の誤差Err(1)が、閾値TH_Err1以下であれば近似可能と判定しステップS405へ、閾値より大きければ近似不可であったと判定しステップS404へ移動する。   Next, in step S403, it is determined whether the luminance histogram HST [b] can be approximated by a single Gaussian distribution GP (1). Here, if the error Err (1) of GP (1) is equal to or smaller than the threshold value TH_Err1, it is determined that approximation is possible, and if it is larger than the threshold value, it is determined that approximation is impossible and the process moves to step S404.

つぎに、ステップS404において、輝度ヒストグラムHST[b]が混合ガウス分布GP(2)で近似可能であるかを判定する。ここでは、GP(2)の場合の誤差Err(2)が、閾値TH_Err2以下であれば近似可能と判定して、路面パターンを分析するべくステップS406へ移動し、閾値より大きければ近似不可であったと判定し、ステップS409へ移動する。   Next, in step S404, it is determined whether the luminance histogram HST [b] can be approximated by the mixed Gaussian distribution GP (2). Here, if the error Err (2) in the case of GP (2) is less than or equal to the threshold value TH_Err2, it is determined that approximation is possible, and the process moves to step S406 to analyze the road surface pattern. It judges with having carried out, and moves to Step S409.

なお、ステップS402における近似において、G=2より大きい、G=3、G=4での近似を試みても良く、この場合、ステップS404ではG=2、3、4における近似誤差のうち最小の近似誤差を選択し、その値が閾値以下であるか否かによって、近似可否を判定する。   In the approximation in step S402, approximation with G = 3, G = 4, which is larger than G = 2, may be attempted. In this case, in step S404, the smallest approximation error in G = 2, 3, and 4 is used. An approximation error is selected, and whether or not approximation is possible is determined based on whether or not the value is equal to or less than a threshold value.

ステップS403で輝度ヒストグラムHST[b]が単一のガウス分布GP(1)で近似可能であると判定された場合(ステップS403でYES)、ステップS405で路面状態を[均一状態]と推定する。路面状態が[均一状態]であるとは、図3−2に示すように、路面に日陰日向や影がなく、ほぼ単一の輝度とみなすことができる状態をいう。なお、路面に駐車枠などの白線が存在する場合でも、画像内では白線の画素数よりも路面の画素数の方が圧倒的に多いので、単一のガウス分布に近似化できる。   When it is determined in step S403 that the luminance histogram HST [b] can be approximated by a single Gaussian distribution GP (1) (YES in step S403), the road surface state is estimated as [uniform state] in step S405. The road surface state is “uniform state” as shown in FIG. 3-2, which means that there is no shade or shadow on the road surface and can be regarded as almost a single luminance. Even when a white line such as a parking frame is present on the road surface, the number of pixels on the road surface is overwhelmingly larger than the number of pixels on the white line in the image, so that it can be approximated to a single Gaussian distribution.

ステップS404で輝度ヒストグラムHST[b]が混合ガウス分布GP(2)で近似可能であると判定された場合(ステップS404でYES)、路面が明暗に分離された[明暗分離状態]であると推定し、その状態をさらに詳細に分析すべく、ステップS406以降の処理を実行する。ステップS406で路面パターン分析を実施する。路面パターン分析では、路面の明暗の形状を認識する処理が行われる。そして、ステップS406において認識された、路面の明暗の形状に基づき、ステップS407で[明暗分離状態]が[反射状態]であるか否かが判断される。   If it is determined in step S404 that the luminance histogram HST [b] can be approximated by the mixed Gaussian distribution GP (2) (YES in step S404), it is estimated that the road surface is separated into light and dark [light / dark separation state]. Then, in order to analyze the state in more detail, the processing after step S406 is executed. In step S406, road surface pattern analysis is performed. In the road surface pattern analysis, processing for recognizing the light and dark shape of the road surface is performed. Then, based on the bright and dark shape of the road surface recognized in step S406, it is determined in step S407 whether or not [brightness / darkness separation state] is [reflection state].

ステップS407で[反射状態]ではない(NO)と判断された場合には、ステップS408に移行して、路面状態を[日陰日向状態]もしくは[その他の明暗分離状態]のいずれかであると推定する。一方、ステップS407で[反射状態]である(YES)と判断された場合には、ステップS409に移行して、路面状態を[複雑状態([反射状態]を含む]であると推定する。   If it is determined in step S407 that it is not [reflective state] (NO), the process proceeds to step S408, and it is estimated that the road surface state is either [shade-sunshine state] or [other light / dark separation state]. To do. On the other hand, if it is determined in step S407 that the state is [reflection state] (YES), the process proceeds to step S409, and the road surface state is estimated to be [complex state (including [reflection state]).

図5は、路面状態の具体例を示す図であり、図5(a)は日陰日向状態を示し、図5(b)はその他の明暗分離状態を示し、図5(c)は反射状態を示している。路面状態が[日陰日向状態]であるとは、画像に自車の影が映り込んでいる状態をいう。そして、[その他の明暗分離状態]であるとは、例えば図5(b)に示すように、ビルや壁などの自車以外の物体の影が映り込んでいる状態や、道路工事等により路面の輝度が部分的に異なっている状態をいう。そして、[反射状態]であるとは、例えば図5(c)に示すように、雨等により濡れた路面に反射した構造物が映り込んでいる状態をいう。   FIG. 5 is a diagram showing a specific example of the road surface state, FIG. 5 (a) shows a shaded and sunny state, FIG. 5 (b) shows other light / dark separation states, and FIG. 5 (c) shows a reflection state. Show. The road surface state being “shade and sunny state” refers to a state in which the shadow of the vehicle is reflected in the image. And [other light-and-dark separation state] means that, for example, as shown in FIG. 5 (b), the road surface is reflected by a state in which a shadow of an object other than the own vehicle such as a building or a wall is reflected, or road construction. The state in which the brightness of the is partially different. The “reflection state” means a state in which a structure reflected on a road surface wet by rain or the like is reflected as shown in FIG. 5C, for example.

路面パターン分析は、近似した混合ガウス分布パラメータGP(2)を用いて、俯瞰画像1015を分析することにより行われる。以下、GP(2)の2つのガウス分布のうち、平均輝度が大きい分布をGPH、平均輝度が小さい分布をGPLとする。   The road surface pattern analysis is performed by analyzing the overhead image 1015 using the approximate mixed Gaussian distribution parameter GP (2). Hereinafter, of the two Gaussian distributions of GP (2), a distribution with a large average luminance is GPH, and a distribution with a low average luminance is GPL.

まず、俯瞰画像1015の各画素に対し、2つのガウス分布のうち、GPLに属している画素を抽出する。属しているか否かは、各画素の輝度をGPL、GPHに代入し、GPLの出力値がGPHの出力値より大きいか否かによって判定可能である。   First, for each pixel of the overhead image 1015, a pixel belonging to GPL is extracted from two Gaussian distributions. Whether the pixel belongs or not can be determined by substituting the luminance of each pixel into GPL and GPH, and whether or not the output value of GPL is larger than the output value of GPH.

つぎに、俯瞰画像1015内でGPLに属している画素のみを抽出した2値画像を生成し、形状を分析する。例えば図5(a)に示すように、平均輝度が小さいガウス分布に属している画素が、自車近傍領域内から一定方向に延びている場合は、路面状態が[日陰日向状態]であると判定する。路面状態が[日陰日向状態]と判定された場合、GPH画素領域Saが日向路面に相当し、GPL画素領域Sbが日陰路面に相当する。   Next, a binary image is generated by extracting only pixels belonging to the GPL in the overhead image 1015, and the shape is analyzed. For example, as shown in FIG. 5A, when a pixel belonging to a Gaussian distribution with a small average luminance extends in a certain direction from within the vicinity of the host vehicle, the road surface state is [shade-sunshine state]. judge. When it is determined that the road surface state is [shade / sunshine state], the GPH pixel area Sa corresponds to the sun road surface, and the GPL pixel area Sb corresponds to the shade road surface.

例えば図5(b)に示すように、GPLに属している画素が画像の半分に存在する等、自車近傍領域内がGPL画素領域SbとGPH画素領域Saに二分に区画される場合には、路面状態が[その他の明暗分離状態]であると判定する。図5(c)に示すように雨等により濡れた路面に反射した構造物が映り込んでいる等により、GPL画素領域Sbが複雑な形状を有している場合は、[反射状態]であると判定する(ステップS407でYES)。上記判定は、GPLに属している画素を抽出した2値画像に対し、ラベリング処理を行い、各ラベルの形状を見ることで判定することができる。   For example, as shown in FIG. 5 (b), when the area near the vehicle is divided into the GPL pixel area Sb and the GPH pixel area Sa, for example, the pixels belonging to the GPL are present in half of the image. Then, it is determined that the road surface state is [other light / dark separation state]. When the GPL pixel region Sb has a complicated shape due to reflection of a structure reflected on the road surface wetted by rain or the like as shown in FIG. (YES in step S407). The above determination can be made by performing a labeling process on a binary image obtained by extracting pixels belonging to the GPL and viewing the shape of each label.

ステップS407において,路面状態が[反射状態]でなければステップS408へ移動し、[反射状態]であればステップS409へ移動する。ステップS408は,輝度ヒストグラムを予め設定されているガウス分布により近似することが可能であると判定し,路面状態を[日陰日向状態]もしくは[その他の明暗分離状態]であると推定する。ステップS409は、輝度ヒストグラムを予め設定されているガウス分布により近似することが困難、もしくは、形状が複雑であると判定し、路面状態を[複雑状態]であると推定する。[反射状態]は、[複雑状態]の部分集合として扱う。   In step S407, if the road surface state is not “reflection state”, the process moves to step S408. If the road surface state is “reflection state”, the process moves to step S409. In step S408, it is determined that the luminance histogram can be approximated by a Gaussian distribution set in advance, and the road surface state is estimated to be [shade sunshine state] or [other light / dark separation state]. In step S409, it is determined that it is difficult to approximate the luminance histogram by a preset Gaussian distribution or the shape is complicated, and the road surface state is estimated to be [complex state]. [Reflection state] is treated as a subset of [Complex state].

以上説明したように、路面状態推定部1031では自車近傍領域のヒストグラムが単峰性、二峰性、その他のどのモデルにもっとも当てはまるか、さらにあてはめたモデルにおけるパラメータを推定する。   As described above, the road surface state estimation unit 1031 estimates which model is the most applicable to the unimodality, bimodality, and other models of the own vehicle vicinity region, and further estimates the parameters in the fitted model.

[判定方法設定部]
つぎに、判定方法設定部1041の処理の内容について説明する。
本実施例においては、路面状態が[複雑状態]と推定された場合とそれ以外の場合で大きく2種類の判定方法を用いる。路面状態が[複雑状態]以外と判定された場合は、路面状態推定部1031にて用いた混合ガウス分布モデルGP(G)を用いた判定を行う。一方、路面状態が[複雑状態]と判定された場合は、輝度パターンを用いた判定を行う。輝度パターンについての詳細は、白線判定部1061にて説明する。
[Judgment method setting section]
Next, the contents of processing of the determination method setting unit 1041 will be described.
In the present embodiment, two types of determination methods are mainly used in cases where the road surface state is estimated as [complex state] and in other cases. If the road surface state is determined to be other than [complex state], determination using the mixed Gaussian distribution model GP (G) used in the road surface state estimation unit 1031 is performed. On the other hand, when the road surface state is determined as [complex state], determination using a luminance pattern is performed. Details of the luminance pattern will be described in the white line determination unit 1061.

[白線候補検出部]
つぎに、図6を用いて、白線候補検出部1051における処理の内容について説明する。
図6は、白線候補検出部1051の処理の流れを示したフローチャートである。白線候補検出部1051は、俯瞰画像1015全体に対して実施しても良いし、処理領域を限定しても良い。本実施例では、シフトポジションに基づいて、自車が停車・前進している場合は俯瞰画像1015の上半分を、自車が後進している場合は下半分を処理領域として設定する。
[White line candidate detection unit]
Next, the contents of processing in the white line candidate detection unit 1051 will be described with reference to FIG.
FIG. 6 is a flowchart showing the processing flow of the white line candidate detection unit 1051. The white line candidate detection unit 1051 may be performed on the entire overhead image 1015 or may limit the processing region. In this embodiment, based on the shift position, the upper half of the overhead image 1015 is set as the processing area when the host vehicle is stopped and moving forward, and the lower half is set when the host vehicle is moving backward.

まず、ステップS601にて、処理領域内の各ラインに対して画像の左側から右側に走査しながら、縦方向のエッジフィルタを適用する。以下、ステップS602、S603はライン毎に実施する。ステップS602にて、エッジフィルタの出力値がピークとなるエッジ点を検出する。ピークは、立ち上がりエッジ(輝度の暗から明への変化点)Eu[nu]立下りエッジ(輝度の明から暗への変化点)Ed[nd]を検出する。   First, in step S601, a vertical edge filter is applied to each line in the processing region while scanning from the left side to the right side of the image. Hereinafter, steps S602 and S603 are performed for each line. In step S602, an edge point where the output value of the edge filter reaches a peak is detected. The peak is detected at the rising edge (change point of luminance from dark to light) Eu [nu] falling edge (change point of luminance from light to dark) Ed [nd].

路面上の白線は路面よりも輝度値が高いため、白線の左側には立ち上がりエッジが、右側には立下りエッジが存在する。その特徴を捉えるため、ステップS603にて、ステップS602で検出した立ち上がりエッジ点Eu[nu]、立下りエッジ点Ed[nd]のうち、立ち上がりエッジから画像右側の所定範囲(あらかじめ定義する、検出する白線の最大太さ)内に立下りエッジが存在するエッジペアEp[np]のみを残し、それ以外の単独エッジは消去する。上記S601〜S603を、処理領域内の各ラインに対して実行する。   Since the white line on the road surface has a higher luminance value than the road surface, a rising edge exists on the left side of the white line and a falling edge exists on the right side. In order to capture the feature, in step S603, among the rising edge point Eu [nu] and the falling edge point Ed [nd] detected in step S602, a predetermined range on the right side of the image from the rising edge (predefined and detected) Only the edge pair Ep [np] in which the falling edge exists within the maximum thickness of the white line is left, and the other single edges are deleted. The above S601 to S603 are executed for each line in the processing area.

つぎに、ステップS604にて、エッジペアEp[np]のうち、直線状に並んでいるものをグルーピングし、直線候補グループLg[ng]を生成する。ここで、直線状でないエッジペアを除去する。直線上に並ぶ白線のグルーピングは、公知のハフ変換を用いることで可能である。つぎに、ステップS605にて、直線候補グループLg[ng]の線のうち、所定長さ以下のものを除去する。そして、ステップS606にて、残ったグループの立ち上がり・立下りエッジの上端・下端の座標を、白線候補LC[n]の要素として格納する。   Next, in step S604, the edge pairs Ep [np] arranged in a straight line are grouped to generate a straight line candidate group Lg [ng]. Here, edge pairs that are not linear are removed. The grouping of white lines arranged on a straight line is possible by using a known Hough transform. Next, in step S605, lines having a predetermined length or less are removed from the lines of the straight line candidate group Lg [ng]. In step S606, the coordinates of the upper and lower edges of the rising and falling edges of the remaining group are stored as elements of the white line candidate LC [n].

[白線判定部]
つぎに、図7−1〜図7−3、図8−1、図8−2、図9を用いて、白線判定部1061における処理の内容について説明する。図7−1は、白線判定部1061の処理の流れを示したフローチャートである。
[White line judgment part]
Next, the content of processing in the white line determination unit 1061 will be described with reference to FIGS. 7-1 to 7-3, FIGS. 8-1, 8-2, and 9. FIG. 7A is a flowchart illustrating a processing flow of the white line determination unit 1061.

まず、ステップS701にて、路面状態推定部1031にて判定された路面状態が[複雑状態]であったか否かを確認する。[複雑状態]ではなかった場合はステップS7011へ移動し、[複雑状態]であった場合はステップS706へと移動する。ステップS7011では、路面状態推定部1031にて判定された路面状態が[日陰日向状態]であったか否かを確認する。[日陰日向状態]ではなかった場合はステップS702に移動し、[日陰日向状態]であった場合はステップS707へと移動する。以下、ステップS702からステップS705までの処理は、白線候補LC[n]の数だけ処理を繰り返す。   First, in step S701, it is confirmed whether or not the road surface state determined by the road surface state estimation unit 1031 is a [complex state]. If it is not [complex state], the process proceeds to step S7011, and if it is [complex state], the process proceeds to step S706. In step S7011, it is confirmed whether or not the road surface state determined by the road surface state estimation unit 1031 is [shade and sunny state]. If it is not [shade-sunshine state], the process proceeds to step S702. If it is [shade-sunshine state], the process proceeds to step S707. Hereinafter, the processing from step S702 to step S705 is repeated for the number of white line candidates LC [n].

まず、ステップS702にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]を作成する。つぎに、ステップS703にて、白線候補輝度(白線候補の内側輝度ヒストグラム)が路面輝度基準に含まれるか否かを判断する。ここでは、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]と、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)との誤差Err_LNGPを算出し、閾値TH_LNGPと比較する。そして、誤差Err_LNGPが閾値TH_LNGPよりも大きければ、白線候補の輝度が路面輝度基準に含まれない(ステップS703でNO)と判定し、ステップS704へ移動し、誤差Err_LNGPが閾値TH_LNGP以下であれば路面輝度基準に含まれる(ステップS703でYES)と判定し、ステップS705へ移動する。   First, in step S702, a luminance histogram HSTLC [n] inside the white line candidate LC [n] is created. Next, in step S703, it is determined whether the white line candidate luminance (inner luminance histogram of the white line candidate) is included in the road surface luminance reference. Here, an error Err_LNGP between the luminance histogram HSTLC [n] inside the white line candidate LC [n] and the mixed Gaussian distribution model GP (G) set by the determination method setting unit 1041 is calculated and compared with the threshold TH_LNGP. To do. If the error Err_LNGP is larger than the threshold value TH_LNGP, it is determined that the brightness of the white line candidate is not included in the road surface brightness reference (NO in step S703), and the process moves to step S704. It determines with it being contained in a brightness | luminance reference | standard (it is YES at step S703), and moves to step S705.

ステップS704では、白線候補を白線と判定し、白線候補LC[n]の情報を白線LN[m]へコピーする。一方、ステップS705では、白線候補は白線ではないと判定し、白線候補LC[n]の情報を白線LN[m]へコピーせず、消去する。ステップS706では、次で説明する[複雑状態]であると判定された場合の処理に入る。   In step S704, the white line candidate is determined to be a white line, and the information of the white line candidate LC [n] is copied to the white line LN [m]. On the other hand, in step S705, it is determined that the white line candidate is not a white line, and the information of the white line candidate LC [n] is not copied to the white line LN [m] but is erased. In step S706, the process when it is determined that the state is [complex state] described below is entered.

上記した白線判定処理の具体例について図7−2、図7−3を用いて説明する。図7−2(a)は、自車前方の駐車枠線を白線候補LCとして検知しているシーンである。ここでは左右の白線候補のうち、右側の白線候補LCに対する処理について説明する(左側の白線候補に対する処理も同様である)。   A specific example of the above-described white line determination process will be described with reference to FIGS. 7-2 and 7-3. FIG. 7-2 (a) is a scene in which a parking frame line in front of the host vehicle is detected as a white line candidate LC. Here, the processing for the right white line candidate LC among the left and right white line candidates will be described (the same applies to the processing for the left white line candidate).

図7−2(b)は、白線候補LC[n]の内側領域(図7−2(a)右側の点線矩形内)の輝度ヒストグラムHSTLC[n]、図7−2(c)は、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)のヒストグラム、図7−2(d)は、図7−2(b)と(c)のヒストグラムの誤差を表示したものである。   FIG. 7-2 (b) shows the luminance histogram HSTLC [n] of the inner region of the white line candidate LC [n] (inside the dotted rectangle on the right side of FIG. 7-2 (a)), and FIG. The histogram of the mixed Gaussian distribution model GP (G) set by the method setting unit 1041, FIG. 7-2 (d) displays the error of the histograms of FIGS. 7-2 (b) and (c). .

白線候補LC[n]の内側領域の輝度ヒストグラムHSTLC[n]として図7−2(b)に示す輝度ヒストグラムが得られ、判定方法設定部1041にて設定した混合ガウス分布モデルGP(G)の輝度ヒストグラムが図7−2(c)に示すものであった場合に、図7−2(b)と(c)のヒストグラムを比較すると、図7−2(d)に示すように、互いに分布の位置が大きく異なっている。したがって、路面状態推定部1031にて述べた方法を用いて、これら2つのヒストグラムの誤差を求めると、閾値TH_LNGPを超える大きい値が得られ、白線として判定される.   The luminance histogram shown in FIG. 7B is obtained as the luminance histogram HSTLC [n] of the inner region of the white line candidate LC [n], and the mixed Gaussian distribution model GP (G) set by the determination method setting unit 1041 is obtained. When the luminance histogram is as shown in FIG. 7-2 (c), the histograms of FIGS. 7-2 (b) and (c) are compared with each other as shown in FIG. 7-2 (d). The position of is very different. Therefore, when the error of these two histograms is obtained using the method described in the road surface state estimation unit 1031, a large value exceeding the threshold value TH_LNGP is obtained and determined as a white line.

一方、図7−3の例について説明する。図7−3(a)は、自車前方に影(GPL画素領域Sb)が存在し、その影の間の日向部分(GPH画素領域Sa)を白線候補LCとして検出しているシーンである。ここでは左右の白線候補のうち、右側の白線候補LCに対する処理について説明する(左側の白線候補に対する処理も同様である)。   On the other hand, the example of FIG. FIG. 7-3 (a) is a scene in which a shadow (GPL pixel area Sb) exists in front of the host vehicle, and a sunlit part (GPH pixel area Sa) between the shadows is detected as a white line candidate LC. Here, the processing for the right white line candidate LC among the left and right white line candidates will be described (the same applies to the processing for the left white line candidate).

図7−3(b)は、白線候補LC[n]の内側領域(図7−3(a)右側の点線矩形内)の輝度ヒストグラムHSTLC[n]、図7−3(c)は、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)のヒストグラム、図7−3(d)は、図7−3(b)と(c)のヒストグラムの誤差を表示したものである。   FIG. 7-3 (b) shows the luminance histogram HSTLC [n] of the inner region of the white line candidate LC [n] (inside the dotted rectangle on the right side of FIG. 7-3 (a)), and FIG. The histogram of the mixed Gaussian distribution model GP (G) set by the method setting unit 1041 and FIG. 7-3 (d) display the errors of the histograms of FIGS. 7-3 (b) and (c). .

白線候補LC[n]の内側領域の輝度ヒストグラムHSTLC[n]として図7−3(b)に示す輝度ヒストグラムが得られ、判定方法設定部1041にて設定した混合ガウス分布モデルGP(G)の輝度ヒストグラムが図7−3(c)に示すものであった場合に、図7−3(b)と(c)のヒストグラムを比較すると、図7−3(d)に示すように、分布の位置がほぼ一致する。したがって、路面状態推定部1031にて述べた方法を用いて、これら2つのヒストグラムの誤差を求めると、小さい値が得られる。したがって、閾値TH_LNGP以下の値となり、白線ではないと判定され、消去される。   The luminance histogram shown in FIG. 7-3 (b) is obtained as the luminance histogram HSTLC [n] of the inner region of the white line candidate LC [n], and the mixed Gaussian distribution model GP (G) set by the determination method setting unit 1041 is obtained. When the luminance histogram is as shown in FIG. 7-3 (c), comparing the histograms of FIGS. 7-3 (b) and (c), as shown in FIG. The position is almost the same. Accordingly, when the error between these two histograms is obtained using the method described in the road surface state estimation unit 1031, a small value can be obtained. Therefore, the value is equal to or less than the threshold value TH_LNGP, and it is determined that the line is not a white line and is erased.

ステップS706では、図8−1に記載された処理が実行される。図8−1は、路面が[複雑状態]であると判定された場合の処理である。ステップS801からステップS804までの処理は、白線候補LC[n]の数だけ処理を繰り返す。まず、ステップS801にて、白線候補周辺の輝度パターン、つまり俯瞰画像1015に対して白線候補を含む領域を設定する。つぎに、ステップS802にて、白線候補の輝度パターンが放射状であるか、つまり俯瞰画像1015に対して白線候補を含むよう設定された領域の形状が放射状であるかを判定する。図2を用いて説明したように、俯瞰画像1015は上空からの仮想視点の画像である。   In step S706, the process described in FIG. 8-1 is executed. FIG. 8A is a process when it is determined that the road surface is in the “complex state”. The processing from step S801 to step S804 is repeated for the number of white line candidates LC [n]. First, in step S <b> 801, a region including a white line candidate is set for a luminance pattern around the white line candidate, that is, the overhead image 1015. Next, in step S802, it is determined whether the luminance pattern of the white line candidate is radial, that is, whether the shape of the region set to include the white line candidate in the overhead image 1015 is radial. As described with reference to FIG. 2, the bird's-eye view image 1015 is a virtual viewpoint image from the sky.

雨などで濡れた路面に構造物が反射して映り込む路面反射等が存在すると、路面上に図5(c)のようなパターンが現れる。このパターンは俯瞰画像1015上におけるカメラ設置位置から放射状に延びるため、白線候補を含むよう設定された領域内の画像がカメラ設置位置から放射状になっているか否かを判定することで、白線候補が路面反射によるものなのか、本当の白線なのかを見分けることができる。   If there is road surface reflection or the like in which the structure is reflected and reflected on the road surface wet by rain or the like, a pattern as shown in FIG. 5C appears on the road surface. Since this pattern extends radially from the camera installation position on the bird's-eye view image 1015, the white line candidate is determined by determining whether or not the image in the region set to include the white line candidate is radial from the camera installation position. You can tell whether it is due to road surface reflection or true white line.

本実施例では、放射状であるかを判定する方法として、以下の方法を用いる。まず、白線候補を含むよう設定された領域内の各画像からエッジ角度DE[x][y]を算出する。つぎに、各画素の位置とカメラ設置位置が成す角度DC[x][y]を算出する。そして、DE[x][y]とDC[x][y]の差を求め、その値が閾値TH_DEDC以内であるか否かを判定する。以上の処理を、白線候補を含むよう設定された領域内のすべての画素に実施し、閾値以内である画素数をカウントする。そして、カウントした画素数を領域の面積で割った値RRを求め、その値が閾値TH_RR以上であれば放射状であると判定し、そうでなければ放射状ではないと判定する。ここで,閾値TH_DEDC、TH_RRはあらかじめ設定しておく。   In the present embodiment, the following method is used as a method for determining whether the beam is radial. First, an edge angle DE [x] [y] is calculated from each image in an area set to include white line candidates. Next, an angle DC [x] [y] formed by the position of each pixel and the camera installation position is calculated. Then, the difference between DE [x] [y] and DC [x] [y] is obtained, and it is determined whether or not the value is within the threshold TH_DEDC. The above processing is performed for all the pixels in the region set to include white line candidates, and the number of pixels that are within the threshold is counted. Then, a value RR obtained by dividing the counted number of pixels by the area of the region is obtained. If the value is equal to or greater than the threshold value TH_RR, it is determined to be radial, otherwise it is determined not to be radial. Here, threshold values TH_DEDC and TH_RR are set in advance.

ステップS802にて、白線候補の輝度パターンが放射状ではない(ステップS802でNO)と判定されるとステップS803へ移動する。ステップS803では、白線候補を白線と判定し、白線候補LC[n]の情報を白線LN[m]へコピーする。一方、ステップS802にて、白線候補の輝度パターンが放射状である(ステップS802でYES)と判定されるとステップS804へ移動する。ステップS804では、白線候補を白線ではないと判定し、白線候補LC[n]の情報を白線LN[m]へコピーせず、消去する。   If it is determined in step S802 that the brightness pattern of the white line candidate is not radial (NO in step S802), the process moves to step S803. In step S803, the white line candidate is determined as a white line, and the information of the white line candidate LC [n] is copied to the white line LN [m]. On the other hand, if it is determined in step S802 that the brightness pattern of the white line candidate is radial (YES in step S802), the process moves to step S804. In step S804, it is determined that the white line candidate is not a white line, and the information of the white line candidate LC [n] is not copied to the white line LN [m] but is erased.

上記処理における放射状である白線候補の例と、放射状ではない白線候補の例について、図8−2を用いて説明する。図8−2は、俯瞰画像において白線候補が放射線状か否かを説明する図である。図8−2(a)には、俯瞰画像1015上におけるカメラ1001〜1004の各設置位置が示されている。路面への映り込みは、このカメラ位置から放射状に延びる方向となる。   An example of radial white line candidates and an example of non-radial white line candidates in the above processing will be described with reference to FIG. FIG. 8-2 is a diagram for explaining whether or not white line candidates are radial in the overhead image. FIG. 8-2 (a) shows the installation positions of the cameras 1001 to 1004 on the overhead image 1015. Reflection on the road surface is a direction extending radially from the camera position.

図8−2(b)は、放射状ではない白線候補LCの例である。この場合、白線候補LCのエッジの角度が放射状ではないため、カメラ1001の位置を通らない。すなわち、白線候補LCの延長線上にカメラ1001が位置していない。よって、各画素のエッジ角度DE[x][y]と各画素とカメラ設置位置が成す角度DC[x][y]の誤差は大きくなる。   FIG. 8B is an example of a white line candidate LC that is not radial. In this case, since the edge angle of the white line candidate LC is not radial, the position of the camera 1001 is not passed. That is, the camera 1001 is not located on the extension line of the white line candidate LC. Therefore, the error between the edge angle DE [x] [y] of each pixel and the angle DC [x] [y] formed by each pixel and the camera installation position becomes large.

図8−2(c)は、放射状である白線候補LCの例である。この場合、白線候補LCのエッジの角度が放射状であるため、カメラ1001の位置を通る。すなわち、白線候補LCの延長線上にカメラ1001が位置している。よって、各画素のエッジ角度DE[x][y]と各画素とカメラ設置位置が成す角度DC[x][y]の誤差は小さくなる。   FIG. 8-2 (c) is an example of a radial white line candidate LC. In this case, since the angle of the edge of the white line candidate LC is radial, it passes through the position of the camera 1001. That is, the camera 1001 is positioned on the extension line of the white line candidate LC. Therefore, the error between the edge angle DE [x] [y] of each pixel and the angle DC [x] [y] formed by each pixel and the camera installation position becomes small.

さらに、図9にて、路面状態が[日陰日向状態]であると判定された場合の処理を説明する。ステップS7011で路面状態が[日陰日向状態]であると判定されると、ステップS707に移動し、図9に記載された処理が実行される。図9は、路面が[日陰日向状態]であると判定された場合の処理である。   Furthermore, a process when it is determined in FIG. 9 that the road surface state is [shade-sunshine state] will be described. If it is determined in step S7011 that the road surface state is [shade and sunny], the process moves to step S707, and the process described in FIG. 9 is executed. FIG. 9 shows a process when it is determined that the road surface is [shade and sunny].

以下、ステップS901からステップS906までの処理は、白線候補LC[n]の数だけ処理を繰り返す。   Hereinafter, the processing from step S901 to step S906 is repeated by the number of white line candidates LC [n].

ステップS901にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]を取得する。つぎに、ステップS902にて、白線候補LC[n]の外側の輝度ヒストグラムHSTLCEX[n]を取得する。つぎに、ステップS903にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]と、日向路面の分布モデルGPHとの誤差Err_LNGPHを算出し、閾値TH_LNGPHと比較する。誤差Err_LNGPHが閾値TH_LNGPHより大きければ日向路面輝度基準に含まれない(ステップS903でNO)と判定しステップS906へ移動し、誤差Err_LNGPHが閾値TH_LNGPH以下であれば日向路面輝度基準に含まれる(ステップS903でYES)と判定し、ステップS904へ移動する。   In step S901, the brightness histogram HSTLC [n] inside the white line candidate LC [n] is acquired. Next, in step S902, a luminance histogram HSTLCEX [n] outside the white line candidate LC [n] is acquired. Next, in step S903, an error Err_LNGPH between the luminance histogram HSTLC [n] inside the white line candidate LC [n] and the sunny road surface distribution model GPH is calculated and compared with a threshold value TH_LNGPH. If the error Err_LNGPH is greater than the threshold TH_LNGPH, it is determined that it is not included in the sun road surface brightness reference (NO in step S903), and the process proceeds to step S906. YES, and the process proceeds to step S904.

つぎに、ステップS904にて、白線候補LC[n]の外側の輝度ヒストグラムHSTLCEX[n]と、日陰路面の分布モデルGPLとの誤差Err_LNGPLを算出し、閾値TH_LNGPLと比較する。誤差Err_LNGPLが閾値TH_LNGPLよりも大きければ日陰路面輝度基準に含まれない(ステップS904でNO)と判定し、ステップS906へ移動し、誤差Err_LNGPLが閾値TH_LNGPL閾値以下であれば日陰路面輝度基準に含まれる(ステップS904でYES)と判定し、ステップS905へ移動する。   Next, in step S904, an error Err_LNGPL between the luminance histogram HSTLCEX [n] outside the white line candidate LC [n] and the shaded road surface distribution model GPL is calculated and compared with a threshold TH_LNGPL. If the error Err_LNGPL is larger than the threshold value TH_LNGPL, it is determined that it is not included in the shaded road surface brightness reference (NO in step S904), and the process moves to step S906. It determines with (it is YES at step S904), and moves to step S905.

ステップS906では、白線候補を白線と判定し、白線候補LC[n]の情報を白線LN[m]へコピーする。ステップS905では、白線候補を白線ではないと判定し、白線候補LC[n]の情報を白線LN[m]へコピーせず、消去する。   In step S906, the white line candidate is determined to be a white line, and the information of the white line candidate LC [n] is copied to the white line LN [m]. In step S905, it is determined that the white line candidate is not a white line, and the information on the white line candidate LC [n] is not copied to the white line LN [m] but is erased.

以上、白線判定部1061において、白線候補LC[n]の輝度と路面状態に応じた判定方法に基づいて、白線候補LC[n]を白線LN[n]に含めるか否かという処理を説明した。本実施例では、路面状態が[複雑状態]以外の状態であった場合には白線候補LC[n]の内側の輝度ヒストグラムHSTLC[b]と混合ガウス分布近似モデルGP(G)の誤差の大きさに基づいて判定する。また、路面状態が[複雑状態]であった場合には、白線候補LC[n]を含む領域の輝度パターンが放射状の特徴を持つ度合いに基づいて判定する。   As described above, the white line determination unit 1061 has described the process of whether to include the white line candidate LC [n] in the white line LN [n] based on the determination method according to the brightness of the white line candidate LC [n] and the road surface state. . In the present embodiment, when the road surface state is a state other than [complex state], the error histogram HSTLC [b] inside the white line candidate LC [n] and the mixed Gaussian distribution approximation model GP (G) are large in error. Judgment based on this. When the road surface state is [complex state], the determination is made based on the degree to which the luminance pattern of the region including the white line candidate LC [n] has a radial feature.

さらに、路面状態が[日陰日向状態]であった場合には、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[b]と日向路面のガウス分布モデルGPHとの誤差の大きさ、および、白線候補LC[n]の外側の輝度ヒストグラムHSTLCEX[b]と日陰路面のガウス分布モデルGPLとの誤差の大きさに基づいて判定する。このような処理により、路面状態に応じた判定が可能となり、誤認識を防ぐことが可能となる。   Further, when the road surface state is [shade-sunshine state], the magnitude of error between the brightness histogram HSTLC [b] inside the white line candidate LC [n] and the Gaussian distribution model GPH of the sun road surface, and the white line The determination is based on the magnitude of the error between the brightness histogram HSTLCEX [b] outside the candidate LC [n] and the shaded Gaussian distribution model GPL. By such processing, determination according to the road surface condition is possible, and erroneous recognition can be prevented.

[駐車枠認識部]
つぎに、図10を用いて、駐車枠認識部1071における処理の内容について説明する。
図10は駐車枠認識部1071の処理の流れを示したフローチャートである。
[Parking frame recognition unit]
Next, the contents of processing in the parking frame recognition unit 1071 will be described with reference to FIG.
FIG. 10 is a flowchart showing a processing flow of the parking frame recognition unit 1071.

まず、ステップS101にて、白線LN[m]から2本の線LN[mL]、LN[mR]を選択する。つぎに、ステップS102において、ステップS101で選択した2本の白線LN[mL]、LN[mR]の延在方向の角度差θが所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS102では、2本の白線が略平行であるか否かを判断する。ステップS102が肯定判断されるとステップS103へ進み、2本の白線LN[mL]、LN[mR]の間隔Wが所定の範囲内(ThWmin以上かつThWmax以下)であるか否かを判断する。すなわち、ステップS103では、駐車枠を構成する2本の白線として考えられる間隔で2本の白線が並んでいるか否かを判断する。   First, in step S101, two lines LN [mL] and LN [mR] are selected from the white line LN [m]. Next, in step S102, it is determined whether or not the angular difference θ in the extending direction of the two white lines LN [mL] and LN [mR] selected in step S101 is equal to or smaller than a predetermined value (Thθmax). That is, in step S102, it is determined whether or not the two white lines are substantially parallel. If a positive determination is made in step S102, the process proceeds to step S103, and it is determined whether or not the interval W between the two white lines LN [mL] and LN [mR] is within a predetermined range (ThWmin or more and ThWmax or less). That is, in step S103, it is determined whether or not two white lines are aligned at an interval that can be considered as two white lines constituting the parking frame.

ステップS103が肯定判断されるとステップS104へ進み、2本の白線の下端のずれΔBが所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断する。ここで、2本の白線の下端のずれについて、図11を参照して説明する。図11の左図(a)に示すように、駐車場の敷地における車両1の移動方向(図11の紙面における上下方向および左右方向)に対して車両1を平行または直角に駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合、紙面における2本の白線の下端のずれΔBは少ない。   If an affirmative determination is made in step S103, the process proceeds to step S104, and it is determined whether or not the deviation ΔB between the lower ends of the two white lines is within a predetermined range (from ThBmin to ThBmax). Here, the shift of the lower ends of the two white lines will be described with reference to FIG. As shown to the left figure (a) of FIG. 11, it parks so that the vehicle 1 may be parked in parallel or at right angles with respect to the moving direction of the vehicle 1 on the site of the parking lot (vertical direction and horizontal direction on the paper surface of FIG. 11). When the frame 23 is provided and the parking frame line 23L is drawn so as to correspond to the parking frame 23, the shift ΔB between the lower ends of the two white lines on the paper surface is small.

しかし、図11の右図(b)に示すように、駐車場によっては、車両10の移動方向(図11の紙面における上下方向および左右方向)に対して車両10を平行または直角ではなく斜めに駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合がある。この場合、距離Bで示すように、駐車枠23を構成する駐車枠線23Lの下端位置がずれる。すなわち、2本の白線の下端のずれは大きい。これは、図示右側の駐車枠線23Lが紙面下方の車両1が走行する領域に対してはみ出さないようにするために、駐車枠線23Lの下端位置をずらしてあるからである。   However, as shown in the right figure (b) of FIG. 11, depending on the parking lot, the vehicle 10 is not parallel or perpendicular to the moving direction of the vehicle 10 (vertical direction and horizontal direction on the paper surface of FIG. 11). A parking frame 23 may be provided so as to park, and a parking frame line 23 </ b> L may be drawn so as to correspond to the parking frame 23. In this case, as indicated by the distance B, the lower end position of the parking frame line 23L constituting the parking frame 23 is shifted. That is, the deviation between the lower ends of the two white lines is large. This is because the lower end position of the parking frame line 23L is shifted so that the parking frame line 23L on the right side of the drawing does not protrude from the area where the vehicle 1 travels below the page.

たとえば、高速道路のサービスエリアやパーキングエリアでは、図11の右図(b)の左側の駐車枠線23Lの下端から駐車枠線23Lの延在方向に対して垂直な線分と、駐車枠線23Lの下端同士を結ぶ線分との交差角度ρが0度、30度、45度のいずれかとすることが定められている。また、駐車枠23の幅Wについても取り得る値の範囲が決まっている。そこで、本実施の形態では、上記交差角度ρが、0度、30度、45度のいずれかの値であるときに取り得る距離Bの値があらかじめ不図示のメモリ等に記憶されている。 For example, in a highway service area or parking area, a line segment perpendicular to the extending direction of the parking frame line 23L from the lower end of the parking frame line 23L on the left side of the left figure (b) of FIG. It is determined that the crossing angle ρ with the line connecting the lower ends of 23L is 0 degree, 30 degrees, or 45 degrees. Moreover, the range of the value which can be taken also about the width W of the parking frame 23 is decided. Therefore, in the present embodiment, the value of the distance B that can be taken when the intersection angle ρ is one of 0 degree, 30 degrees, and 45 degrees is stored in advance in a memory (not shown) or the like.

本実施の形態のステップS104では、選択したLN[mL]、LN[mR]から算出される距離Bとを比較して、その差が上述した所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断することによって、2本の白線が1つの駐車枠23を構成する白線(駐車枠線23L)であるか否かを判断する。   In step S104 of the present embodiment, the distance B calculated from the selected LN [mL] and LN [mR] is compared, and the difference is within the predetermined range described above (ThBmin or more and ThBmax or less). By judging whether or not, it is judged whether or not the two white lines are white lines (parking frame line 23L) constituting one parking frame 23.

ステップS104が肯定判断されるとステップS105へ進み、2本の白線LN[mL]、LN[mR]で構成される矩形の駐車枠23の4隅の座標を1つの駐車枠23についての位置の情報PS[k]として登録する。ステップS105を実行するとステップS106へ進み、白線判定部1061から出力された情報に基づくすべての白線(駐車枠線)に関して、任意の2本の白線についての上述した処理を行ったか否かを確認する。ステップS106が肯定判断されると、上述した処理によって得られた結果を出力して、駐車枠認識部1071の処理を終了する。ステップS106が否定判断されるとステップS101へ戻る。   If an affirmative determination is made in step S104, the process proceeds to step S105, and the coordinates of the four corners of the rectangular parking frame 23 composed of two white lines LN [mL] and LN [mR] Register as information PS [k]. If step S105 is performed, it will progress to step S106 and it will confirm whether the process mentioned above about arbitrary two white lines was performed regarding all the white lines (parking frame line) based on the information output from the white line determination part 1061. . If an affirmative determination is made in step S106, the result obtained by the above-described process is output, and the process of the parking frame recognition unit 1071 is terminated. If a negative determination is made in step S106, the process returns to step S101.

以上説明したように、路面状態に応じて白線の判定方法を切り替えて誤認識を抑制することができ、駐車枠認識の精度を向上させることができる。   As described above, the white line determination method can be switched according to the road surface condition to suppress erroneous recognition, and the accuracy of parking frame recognition can be improved.

なお、本実施例ではモノクロカメラについて説明したが、色情報(カラー情報)を用いても良い。色情報を用いる場合は、R、G、Bの3チャネルすべてについて、上記処理を実施することで実現可能である。   In this embodiment, the monochrome camera has been described. However, color information (color information) may be used. When color information is used, it can be realized by performing the above processing for all three channels of R, G, and B.

さらに、図12は、本実施例にて検出した駐車枠認識結果PS[k]を、同一の車両に搭載された別の制御装置へ送信し、駐車支援制御を実施する場合のブロック図である。ここでは、駐車支援制御部1081は、駐車枠認識結果PS[k]の位置情報を取得し、駐車支援制御を実施する。   Furthermore, FIG. 12 is a block diagram in the case where the parking frame recognition result PS [k] detected in the present embodiment is transmitted to another control device mounted on the same vehicle, and the parking support control is performed. . Here, the parking support control unit 1081 acquires the position information of the parking frame recognition result PS [k], and performs the parking support control.

図13は駐車支援制御部1081の処理の流れを示したフローチャートである。
まず、ステップS1301にて、駐車枠認識結果PS[k]の位置情報を取得する。駐車枠認識結果PS[k]は、車載用画像処理装置1000の信号を制御装置へ直接入力することによって取得してもよいし、LAN(Local Area Network)を用いた通信を行うことによって取得してもよい。
FIG. 13 is a flowchart showing a processing flow of the parking support control unit 1081.
First, in step S1301, position information of the parking frame recognition result PS [k] is acquired. The parking frame recognition result PS [k] may be acquired by directly inputting a signal of the in-vehicle image processing apparatus 1000 to the control apparatus, or acquired by performing communication using a LAN (Local Area Network). May be.

つぎに、ステップS1302にて、駐車軌跡を算出する。駐車軌跡は、駐車枠認識結果PS[k]の位置に基づいて生成する。つぎに、ステップS1303にて、駐車可否を判断する。車両の切り返しを数回実施しても駐車不可能である場合は、ステップS1305へ移動し、駐車支援を中止する。一方、駐車可能である場合は、ステップS1304へ移動し、ステアリング、アクセル、ブレーキの少なくともいずれか一つの制御を実施して、目標の駐車枠へ駐車する支援を実施する。   Next, a parking locus is calculated in step S1302. The parking locus is generated based on the position of the parking frame recognition result PS [k]. Next, in step S1303, it is determined whether parking is possible. If the vehicle cannot be parked even if the vehicle is turned back several times, the process moves to step S1305 and parking assistance is stopped. On the other hand, if the vehicle can be parked, the process moves to step S1304, and at least one of steering, accelerator, and brake is controlled to assist parking in the target parking frame.

<第二実施の形態>
つぎに、本発明の車載用画像処理装置の第二実施の形態について、以下に図面を用いて説明する。
<Second embodiment>
Next, a second embodiment of the in-vehicle image processing apparatus of the present invention will be described below with reference to the drawings.

図14は、第二実施の形態における車載用画像処理装置2000の構成を示すブロック図である。なお、以下の説明では、上述の第一実施の形態における車載用画像処理装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。   FIG. 14 is a block diagram illustrating a configuration of the in-vehicle image processing apparatus 2000 according to the second embodiment. In the following description, only portions different from the in-vehicle image processing apparatus 1000 in the first embodiment described above will be described in detail, and the same portions will be denoted by the same reference numerals and detailed description thereof will be omitted.

本実施の形態において特徴的なことは、汚れ検出部2091を有し、その情報を用いて白線判定部2061の処理を行うところである。   What is characteristic in the present embodiment is that it has a stain detection unit 2091 and performs processing of the white line determination unit 2061 using the information.

車載用画像処理装置2000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から対象物を検知するためのものであり、本実施の形態では、自車の前方の障害物を検知するように構成されている。   The in-vehicle image processing device 2000 is incorporated in a camera device mounted on a car, an integrated controller, or the like, and detects an object from images captured by the cameras 1001 to 1004. In the form, it is configured to detect an obstacle ahead of the host vehicle.

車載用画像処理装置2000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。   The in-vehicle image processing apparatus 2000 is configured by a computer having a CPU, a memory, an I / O, and the like, and a predetermined process is programmed and the process is repeatedly executed at a predetermined cycle.

車載用画像処理装置2000は、図14に示すように、画像取得部1021と、路面状態推定部1031と、判定方法設定部1041と、白線候補検出部1051と、汚れ検出部2091と、白線判定部2061と、駐車枠認識部2071と、さらに、駐車支援制御部2081と、を有する。   As illustrated in FIG. 14, the in-vehicle image processing apparatus 2000 includes an image acquisition unit 1021, a road surface state estimation unit 1031, a determination method setting unit 1041, a white line candidate detection unit 1051, a dirt detection unit 2091, and a white line determination. A unit 2061, a parking frame recognition unit 2071, and a parking support control unit 2081.

画像取得部1021は、図2に示すように、自車の周囲を撮像可能な位置に取り付けられたカメラ1001〜1004から、自車周囲を撮影した画像1011〜1014を取得し、幾何変換・合成することにより、上空の仮想視点から見下ろした俯瞰画像1015を生成し、RAM上に記憶する。幾何変換・合成のパラメータは車両出荷時に行うキャリブレーションにより、あらかじめ設定されているものとする。   As shown in FIG. 2, the image acquisition unit 1021 acquires images 1011 to 1014 obtained by photographing the surroundings of the vehicle from cameras 1001 to 1004 attached at positions where the surroundings of the vehicle can be imaged, and performs geometric transformation / combination. By doing so, a bird's-eye view image 1015 looking down from the sky virtual viewpoint is generated and stored on the RAM. It is assumed that geometric transformation / synthesis parameters are set in advance by calibration performed at the time of vehicle shipment.

路面状態推定部1031は、俯瞰画像1015内の自車近傍領域1032から輝度ヒストグラムHST[b]を取得し、路面状態を推定する。本実施例では、路面状態として[均一状態]、[明暗分離状態]、[日陰日向状態]、[複雑状態]の4種類を推定する。   The road surface state estimation unit 1031 acquires the luminance histogram HST [b] from the own vehicle vicinity region 1032 in the overhead image 1015, and estimates the road surface state. In this embodiment, four types of road surface conditions are estimated: [uniform state], [bright / dark separation state], [shade-sunshine state], and [complex state].

判定方法設定部1041は、路面状態推定部1031にて推定した路面状態に応じて、白線を判定するための判定方法を設定する。本実施例においては、[均一状態]、[明暗分離状態]、[日陰日向状態]の場合は輝度ヒストグラムから得られる輝度の範囲、もしくは輝度ヒストグラムのガウスモデルを用いた判定を行い、[複雑状態]の場合は画像のパターンを用いた判定を行う。   The determination method setting unit 1041 sets a determination method for determining a white line according to the road surface state estimated by the road surface state estimation unit 1031. In the present embodiment, in the case of [uniform state], [brightness / darkness separation state], and [shade-sunshine state], determination is performed using the luminance range obtained from the luminance histogram or the Gaussian model of the luminance histogram, and [complex state]. ], Determination using an image pattern is performed.

白線候補検出部1051は、俯瞰画像1015から、白線候補LC[n]を検出する。汚れ検出部2091は、俯瞰画像1015から、カメラのレンズ汚れ位置を算出する。白線判定部2061は、白線候補LC[n]に対して、判定方法設定部1041で設定した判定基準、および、汚れ検出部2091により検出した汚れ情報に基づき、白線の信頼度LRLB[n]を算出する。駐車枠認識部2071は、白線候補LC[n]および白線の信頼度LRLB[n]に基づいて、駐車枠PS[k]を検出する。   The white line candidate detection unit 1051 detects a white line candidate LC [n] from the overhead image 1015. The dirt detection unit 2091 calculates the lens dirt position of the camera from the overhead image 1015. The white line determination unit 2061 sets the white line reliability LRLB [n] for the white line candidate LC [n] based on the determination criterion set by the determination method setting unit 1041 and the stain information detected by the stain detection unit 2091. calculate. The parking frame recognition unit 2071 detects the parking frame PS [k] based on the white line candidate LC [n] and the white line reliability LRLB [n].

さらに、駐車支援制御部2081は、車載用画像処理装置2000と同一の車両に搭載されている制御装置内に搭載され、車載用画像処理装置2000から受信した駐車枠認識結果PS[k]の位置情報および信頼度を用いて、自車との位置関係に応じて、最適な駐車軌跡を算出し、ステアリング、アクセル、ブレーキを制御して、目標の駐車枠へ駐車する。   Furthermore, the parking assist control unit 2081 is mounted in a control device mounted on the same vehicle as the vehicle-mounted image processing device 2000, and the position of the parking frame recognition result PS [k] received from the vehicle-mounted image processing device 2000. Using the information and reliability, an optimal parking locus is calculated according to the positional relationship with the host vehicle, and the steering, the accelerator, and the brake are controlled, and the vehicle is parked in the target parking frame.

[汚れ検出部]
図15を用いて、汚れ検出部2091の一例に関する処理の内容について説明する。
図15は本実施例における、汚れ検出部2091の処理の流れを示したフローチャートである。
[Dirt detection unit]
The content of the process regarding an example of the stain | pollution | contamination detection part 2091 is demonstrated using FIG.
FIG. 15 is a flowchart showing the flow of processing of the dirt detection unit 2091 in this embodiment.

ステップS1401では、俯瞰画像1015を複数の小領域に分割する。小領域の区切り方はあらかじめ設定されているものとする。ステップS1402では、各小領域でヒストグラムを作成する。ステップS1403では、ステップS1402で作成したヒストグラムを、図14の処理を前回実行したときに作成したヒストグラムと比較する。   In step S1401, the overhead image 1015 is divided into a plurality of small areas. It is assumed that how to divide the small area is set in advance. In step S1402, a histogram is created for each small region. In step S1403, the histogram created in step S1402 is compared with the histogram created when the process of FIG.

ステップS1404では、ステップS1403で行った比較に基づいて、各小領域の評価を行う。すなわち、ヒストグラムに変化がない領域についてスコアを上昇させる演算を行う。ステップS1405では、車載用画像処理装置2000は、スコアが所定の閾値を超えた小領域を検出して、その小領域に関する情報(座標値)を異物認識部の認識結果SRD[d]として情報記憶部に記憶する。ここでSRDは汚れた小領域の座標情報であり、dは複数検出した場合のIDである。   In step S1404, each small region is evaluated based on the comparison performed in step S1403. That is, a calculation for increasing the score is performed for an area where there is no change in the histogram. In step S1405, the in-vehicle image processing apparatus 2000 detects a small area whose score exceeds a predetermined threshold, and stores information (coordinate values) regarding the small area as a recognition result SRD [d] of the foreign object recognition unit. Store in the department. Here, SRD is coordinate information of a dirty small area, and d is an ID when a plurality of coordinates are detected.

[白線判定部]
つぎに、図16、図17、図18を用いて、白線判定部2061の一例に関する処理の内容について説明する。図16は本実施例における白線判定部2061の処理の流れを示したフローチャートである。まず、ステップS1501にて、路面輝度基準を用いて白線候補LC[n]の第一の信頼度LRLB1[n]を算出する。以下、第一の信頼度LRLB1[n]の算出方法について述べる。
[White line determination part]
Next, the contents of processing relating to an example of the white line determination unit 2061 will be described with reference to FIGS. 16, 17, and 18. FIG. 16 is a flowchart showing the processing flow of the white line determination unit 2061 in the present embodiment. First, in step S1501, the first reliability LRLB1 [n] of the white line candidate LC [n] is calculated using the road surface luminance reference. Hereinafter, a method of calculating the first reliability LRLB1 [n] will be described.

図17、図18は第一の信頼度LRLB1[n]の算出の処理の流れを示したフローチャートである。各処理のうち、図7−1、図8−1に示した第一実施例における白線判定部1061と同様の箇所には同一の番号を付してその詳細な説明を省略する。   17 and 18 are flowcharts showing the flow of processing for calculating the first reliability LRLB1 [n]. Of each process, the same number is attached | subjected to the location similar to the white line determination part 1061 in the 1st Example shown to FIGS. 7-1 and FIGS. 8-1, and the detailed description is abbreviate | omitted.

ステップS7032にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]と、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)との誤差Err_LNGPを算出する。   In step S7032, an error Err_LNGP between the luminance histogram HSTLC [n] inside the white line candidate LC [n] and the mixed Gaussian distribution model GP (G) set by the determination method setting unit 1041 is calculated.

つぎに、ステップS7042にて、誤差Err_LNGPに基づいて白線の第一の信頼度LRLB1[n]を算出する。本実施例では、誤差Err_LNGPの閾値TH_LNGP1、TH_LNGP2を、TH_LNGP1<TH_LNGP2となるように設定し、誤差Err_LNGP<TH_LNGP1であれば第一の信頼度LRLB1[n]=0.0、誤差Err_LNGP≧TH_LNGP2であれば第一の信頼度LRLB1[n]=1.0、その間は0.0〜1.0を線形補間するように設定する。   Next, in step S7042, the first reliability LRLB1 [n] of the white line is calculated based on the error Err_LNGP. In this embodiment, the threshold values TH_LNGP1 and TH_LNGP2 of the error Err_LNGP are set to satisfy TH_LNGP1 <TH_LNGP2, and if the error Err_LNGP <TH_LNGP1, the first reliability LRLB1 [n] = 0.0 and the error Err_LNGP ≧ LNGPLG If there is, the first reliability LRLB1 [n] = 1.0, and 0.0 to 1.0 is set so as to perform linear interpolation in the meantime.

図18は、路面が[複雑状態]であると判定された場合の本実施例における処理である。ステップS701で路面が複雑状態であると判断されると、ステップS7062に移動し、図18に示す処理が行われる。   FIG. 18 shows processing in this embodiment when it is determined that the road surface is [complex state]. If it is determined in step S701 that the road surface is in a complicated state, the process moves to step S7062, and the process shown in FIG. 18 is performed.

まず、ステップS801で白線候補の内側の輝度パターンを取得する。そして、ステップS8022にて、白線候補の輝度パターン、つまり俯瞰画像1015に対して白線候補を含むよう設定された領域内の画像の放射状の度合いを算出する。本実施例では、白線候補を含むよう設定された領域内の画像からエッジ角度を算出し、各画素のエッジ角度DE[x][y]と、各画素の位置とカメラ設置位置が成す角度DC[x][y]の誤差が閾値TH_DEDC以内である画素をカウントし、カウントした画素が領域の面積に占める割合RRを算出する。   First, in step S801, a luminance pattern inside a white line candidate is acquired. In step S8022, the brightness pattern of the white line candidate, that is, the radial degree of the image in the region set to include the white line candidate with respect to the overhead image 1015 is calculated. In this embodiment, an edge angle is calculated from an image in an area set to include white line candidates, and an edge angle DE [x] [y] of each pixel, and an angle DC formed by the position of each pixel and the camera installation position. Pixels whose error [x] [y] is within the threshold TH_DEDC are counted, and a ratio RR of the counted pixels in the area is calculated.

つぎに、ステップS8032にて、放射状エッジの割合RRに基づいて白線の第一の信頼度LRLB1[n]を算出する。本実施例では、放射状エッジの割合RRの閾値TH_RR1、TH_RR2を、TH_RR1<TH_RR2となるように設定し、放射状エッジの割合RR<TH_RR1であれば第一の信頼度LRLB1[n]=1.0、放射状エッジの割合RR>TH_RR2であれば第一の信頼度LRLB1[n]=0.0、その間は0.0〜1.0を線形補間するように設定する。以上の処理により、図16のステップS1501にて第一の信頼度LRLB1[n]が算出される。   In step S8032, the first reliability LRLB1 [n] of the white line is calculated based on the radial edge ratio RR. In this embodiment, the thresholds TH_RR1 and TH_RR2 of the radial edge ratio RR are set so that TH_RR1 <TH_RR2, and if the radial edge ratio RR <TH_RR1, the first reliability LRLB1 [n] = 1.0. If the ratio RR> TH_RR2 of the radial edges, the first reliability LRLB1 [n] = 0.0, and 0.0 to 1.0 is set so as to perform linear interpolation in the meantime. With the above processing, the first reliability LRLB1 [n] is calculated in step S1501 of FIG.

つぎに、ステップS1502にて、汚れ検出部2091の結果を用いて、白線の第二の信頼度LRLB2[n]を算出する。第二の信頼度LRLB2[n]は、検出した白線候補LC[n]と、汚れた小領域SRD[d]の位置関係より算出する。本実施例では、白線候補LC[n]の位置に、汚れた小領域SRD[d]が存在すれば第二の信頼度LRLB2[n]=0とし、白線候補LC[n]に最も近い汚れた小領域SRD[d]までの距離D_LCDが閾値TH_LCDより大きければ第二の信頼度LRLB2[n]=1.0とし、閾値TH_LCD以下の場合は距離に応じて0.0〜1.0を線形補間するように設定する。   In step S1502, the second reliability LRLB2 [n] of the white line is calculated using the result of the dirt detection unit 2091. The second reliability LRLB2 [n] is calculated from the positional relationship between the detected white line candidate LC [n] and the dirty small region SRD [d]. In the present embodiment, if a dirty small region SRD [d] exists at the position of the white line candidate LC [n], the second reliability LRLB2 [n] = 0 is set, and the dirt closest to the white line candidate LC [n] is set. If the distance D_LCD to the small area SRD [d] is larger than the threshold value TH_LCD, the second reliability LRLB2 [n] = 1.0. If the distance D_LCD is less than the threshold value TH_LCD, 0.0 to 1.0 is set according to the distance. Set to perform linear interpolation.

つぎに、ステップS1503にて、第一の信頼度LRLB1[n]、第二の信頼度LRLB2[n]を用いて、白線の信頼度LRLB[n]を算出する。本実施例においては、第一の信頼度LRLB1[n]と第二の信頼度LRLB2[n]の平均値を用いることとする。算出後、白線候補LC[n]に付随する情報として白線の信頼度LRLB[n]を出力し、白線判定部2061での処理を終了する。   Next, in step S1503, the white line reliability LRLB [n] is calculated using the first reliability LRLB1 [n] and the second reliability LRLB2 [n]. In this embodiment, the average value of the first reliability LRLB1 [n] and the second reliability LRLB2 [n] is used. After the calculation, the white line reliability LRLB [n] is output as information accompanying the white line candidate LC [n], and the processing in the white line determination unit 2061 is terminated.

[駐車枠認識部]
つぎに、図19を用いて、駐車枠認識部2071の一例に関する処理の内容について説明する。
[Parking frame recognition unit]
Next, the contents of processing relating to an example of the parking frame recognition unit 2071 will be described with reference to FIG.

図19は本実施例における駐車枠認識部2071の処理の流れを示したフローチャートである。各処理のうち、図10に示した第一実施例における駐車枠認識部1071と同様の箇所には同一の番号を付してその詳細な説明を省略する。なお、第一実施例における駐車枠認識部1071では白線LN[m]を対象としたが、本実施例では白線候補LC[n]を対象とする。   FIG. 19 is a flowchart showing a processing flow of the parking frame recognition unit 2071 in the present embodiment. Of each process, the same number is attached | subjected to the location similar to the parking frame recognition part 1071 in the 1st Example shown in FIG. 10, and the detailed description is abbreviate | omitted. In the parking frame recognition unit 1071 in the first embodiment, the white line LN [m] is targeted, but in this embodiment, the white line candidate LC [n] is targeted.

ステップS1901、ステップS1902が、第二実施の形態にて追加された処理である。ステップS1901では、選択した2本の線LC[nL]、LC[nR]の信頼度LRLB[nL]、LRLB[nR]がいずれも閾値ThRLB以上であるかを判定し、閾値以上であった場合はステップS102へ、閾値以下であった場合はステップS106へ移動する。   Steps S1901 and S1902 are processes added in the second embodiment. In step S1901, it is determined whether the reliability LRLB [nL] and LRLB [nR] of the two selected lines LC [nL] and LC [nR] are both equal to or greater than the threshold ThRLB. Moves to step S102, and if it is equal to or smaller than the threshold value, moves to step S106.

ステップS1902では、駐車枠PS[k]に、枠の四隅の座標情報のみならず、白線の信頼度のうち値が小さいものを駐車枠の信頼度PSRLB[k]として登録する。信頼度は、後述の駐車支援制御部2081にて用いる。   In step S1902, not only the coordinate information of the four corners of the frame but also the white line reliability having a smaller value is registered as the parking frame reliability PSRLB [k] in the parking frame PS [k]. The reliability is used by a parking assistance control unit 2081 described later.

つぎに、駐車支援制御部2081の処理について説明する。図20は、駐車支援制御部2081の処理フローである。各処理のうち、図13に示した第一実施例における駐車支援制御部1081と同様の箇所には同一の番号を付してその詳細な説明を省略する。ステップS201、S202、S203が、第二実施の形態にて追加された処理である。   Next, processing of the parking support control unit 2081 will be described. FIG. 20 is a processing flow of the parking assistance control unit 2081. Of each process, the same number is attached | subjected to the location similar to the parking assistance control part 1081 in the 1st Example shown in FIG. 13, and the detailed description is abbreviate | omitted. Steps S201, S202, and S203 are processes added in the second embodiment.

ステップS201にて、取得した駐車枠PS[k]の信頼度PSRLB[k]が閾値TH_PSRLB以上であるかを判定する。閾値TH_PSRLB以上である場合はステップS202へ移動し、閾値TH_PSRLBよりも小さい場合はステップS203へ移動する。   In step S201, it is determined whether the reliability PSRLB [k] of the acquired parking frame PS [k] is greater than or equal to a threshold value TH_PSRLB. If it is equal to or greater than the threshold value TH_PSRLB, the process moves to step S202, and if it is smaller than the threshold value TH_PSRLB, the process moves to step S203.

ステップS202では、信頼度が高い駐車場に対して、強い制御を実施する。本実施例では、ステアリング、アクセル、ブレーキすべての制御を実施して、目標の駐車枠へ駐車する支援を実施する。ステップS203では、信頼度が低い駐車場に対して、弱い制御を実施する。本実施例では、ステアリング、アクセル、ブレーキいずれか一つの制御を実施して、目標の駐車枠へ駐車する支援を実施する。   In step S202, strong control is performed on a parking lot with high reliability. In the present embodiment, the steering, the accelerator, and the brake are all controlled to assist the parking in the target parking frame. In step S203, weak control is performed on a parking lot with low reliability. In the present embodiment, any one of steering, accelerator, and brake is controlled to support parking in the target parking frame.

以上説明したように、本発明による判定結果から信頼度を算出し、同様に汚れ判定という別の判定結果からも信頼度を算出し、これらを統合することにより、信頼度に応じて駐車支援の度合いを変えることができる。   As described above, the reliability is calculated from the determination result according to the present invention, similarly, the reliability is also calculated from another determination result of the dirt determination, and these are integrated, so that the parking assistance is performed according to the reliability. The degree can be changed.

<第三実施の形態>
つぎに、本発明の車載用画像処理装置の第三実施の形態について、以下に図面を用いて説明する。
<Third embodiment>
Next, a third embodiment of the in-vehicle image processing apparatus of the present invention will be described below with reference to the drawings.

図21は、第三実施の形態における車載用画像処理装置3000の構成を示すブロック図である。なお、以下の説明では、上述の第一実施の形態における車載用画像処理装置1000、第二実施の形態における車載用画像処理装置2000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。   FIG. 21 is a block diagram illustrating a configuration of an in-vehicle image processing device 3000 according to the third embodiment. In the following description, only the parts different from the in-vehicle image processing apparatus 1000 in the first embodiment and the in-vehicle image processing apparatus 2000 in the second embodiment will be described in detail, and the same numbers will be used for similar parts. The detailed description is omitted.

本実施の形態において特徴的なことは、障害物を検出対象としていることである。
車載用画像処理装置3000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から対象物を検知するためのものであり、本実施の形態では、自車の前方の障害物を検知するように構成されている。
What is characteristic in the present embodiment is that an obstacle is a detection target.
The in-vehicle image processing device 3000 is incorporated in a camera device mounted on an automobile, an integrated controller, or the like, and is used for detecting an object from images captured by the cameras 1001 to 1004. In the form, it is configured to detect an obstacle ahead of the host vehicle.

車載用画像処理装置3000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。   The in-vehicle image processing device 3000 is configured by a computer having a CPU, a memory, an I / O, and the like, and a predetermined process is programmed to repeatedly execute the process at a predetermined cycle.

車載用画像処理装置3000は、図21に示すように、画像取得部1021と、路面状態推定部1031と、判定方法設定部1041と、障害物候補検出部3051と、障害物判定部3061と、さらに、車両制御部3081と、を有する。   As shown in FIG. 21, the in-vehicle image processing device 3000 includes an image acquisition unit 1021, a road surface state estimation unit 1031, a determination method setting unit 1041, an obstacle candidate detection unit 3051, an obstacle determination unit 3061, The vehicle control unit 3081 is also included.

画像取得部1021は、図2に示すように、自車の周囲を撮像可能な位置に取り付けられたカメラ1001〜1004から、自車周囲を撮影した画像1011〜1014を取得し、幾何変換・合成することにより、上空の仮想視点から見下ろした俯瞰画像1015を生成し、RAM上に記憶する。幾何変換・合成のパラメータは車両出荷時に行うキャリブレーションにより、あらかじめ設定されているものとする。   As shown in FIG. 2, the image acquisition unit 1021 acquires images 1011 to 1014 obtained by photographing the surroundings of the vehicle from cameras 1001 to 1004 attached at positions where the surroundings of the vehicle can be imaged, and performs geometric transformation / combination. By doing so, a bird's-eye view image 1015 looking down from the sky virtual viewpoint is generated and stored on the RAM. It is assumed that geometric transformation / synthesis parameters are set in advance by calibration performed at the time of vehicle shipment.

路面状態推定部1031は、俯瞰画像1015内の自車近傍領域1032から輝度ヒストグラムHST[b]を取得し、路面状態を推定する。本実施例では、路面状態として[均一状態]、[明暗分離状態]、[日陰日向状態]、[複雑状態]の4種類を推定する。   The road surface state estimation unit 1031 acquires the luminance histogram HST [b] from the own vehicle vicinity region 1032 in the overhead image 1015, and estimates the road surface state. In this embodiment, four types of road surface conditions are estimated: [uniform state], [bright / dark separation state], [shade-sunshine state], and [complex state].

判定方法設定部1041は、路面状態推定部1031にて推定した路面状態に応じて、白線を判定するための判定方法を設定する。本実施例においては、[均一状態]、[明暗分離状態]、[日陰日向状態]の場合は輝度ヒストグラムから得られる輝度の範囲、もしくは輝度ヒストグラムのガウスモデルを用いて判定を行い、[複雑状態]の場合は画像のパターンを用いて判定を行う。   The determination method setting unit 1041 sets a determination method for determining a white line according to the road surface state estimated by the road surface state estimation unit 1031. In the present embodiment, in the case of [uniform state], [brightness / darkness separation state], and [shade-sunshine state], determination is performed using the luminance range obtained from the luminance histogram or the Gaussian model of the luminance histogram, and [complex state] ], Determination is made using an image pattern.

障害物候補検出部3051は、俯瞰画像1015から、障害物候補OBJC[i]を検出する。障害物判定部3061は、障害物候補OBJC[i]に対して、判定方法設定部1041で設定した判定基準に基づき、障害物OBJ[j]を決定する。さらに、車両制御部3081は、車載用画像処理装置3000と同一の車両に搭載されている制御装置内に搭載され、車載用画像処理装置3000から受信した障害物OBJ[j]の位置情報に基づいて、衝突を防止するための警報や、ブレーキ制御を実施する。   The obstacle candidate detection unit 3051 detects an obstacle candidate OBJC [i] from the overhead image 1015. The obstacle determination unit 3061 determines an obstacle OBJ [j] for the obstacle candidate OBJC [i] based on the determination criterion set by the determination method setting unit 1041. Further, the vehicle control unit 3081 is mounted in a control device mounted on the same vehicle as the in-vehicle image processing device 3000, and is based on the position information of the obstacle OBJ [j] received from the in-vehicle image processing device 3000. In order to prevent collisions, warnings and brake control are implemented.

[障害物候補検出部]
障害物候補検出部3051の一例に関する処理の内容について説明する。
本実施例における障害物候補検出部3051は、画像以外のセンサを用いる場合と、俯瞰画像1015を用いる場合の2パターンが存在する。画像以外のセンサを用いる場合、例えばソナーセンサ等を用いて障害物を検出し、障害物の位置情報を取得する。つぎに、カメラ幾何情報を用いて、俯瞰画像1015上の位置を特定する。他に、例えば公知のパターンマッチ技術を用いて、画像から直接歩行者等の障害物を検出することもできる。この場合も、カメラ幾何情報を用いて、俯瞰画像1015上の位置を特定する。
[Obstacle candidate detection unit]
The contents of processing relating to an example of the obstacle candidate detection unit 3051 will be described.
The obstacle candidate detection unit 3051 in the present embodiment has two patterns when using a sensor other than an image and when using an overhead image 1015. When using a sensor other than an image, for example, a sonar sensor or the like is used to detect an obstacle and acquire position information of the obstacle. Next, the position on the bird's-eye view image 1015 is specified using the camera geometric information. In addition, obstacles such as pedestrians can be directly detected from the image using, for example, a known pattern matching technique. Also in this case, the position on the bird's-eye view image 1015 is specified using the camera geometric information.

[白線判定部]
つぎに、図22、23を用いて、障害物判定部3061における処理の内容について説明する。
[White line judgment part]
Next, contents of processing in the obstacle determination unit 3061 will be described with reference to FIGS.

図22は、障害物判定部3061の処理の流れを示したフローチャートである。
まず、ステップS2201にて、路面状態推定部1031にて判定された路面が[複雑状態]であったかを確認する。複雑状態でなかった場合はステップS2202へ、複雑状態であった場合はステップS2206へと処理を移す。以下、ステップS2202からステップS2205までの処理は、障害物候補LC[i]の数だけ処理を繰り返す。
FIG. 22 is a flowchart showing a process flow of the obstacle determination unit 3061.
First, in step S2201, it is confirmed whether or not the road surface determined by the road surface state estimation unit 1031 is [complex state]. If it is not a complicated state, the process proceeds to step S2202, and if it is a complicated state, the process proceeds to step S2206. Hereinafter, the processing from step S2202 to step S2205 is repeated by the number of obstacle candidates LC [i].

まず、ステップS2202にて、障害物候補OBJC[i]の内側の輝度ヒストグラムHSTOBJC[i]を作成する。つぎに、ステップS703にて、障害物候補OBJC[i]の内側の輝度ヒストグラムHSTOBJC[i]と、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)との誤差Err_OBJGPを算出し、閾値TH_BOJGPと比較する。誤差Err_OBJGPが閾値TH_BOJGPより大きければ路面輝度基準に含まれないと判定し、ステップS2204へ移動し、誤差Err_OBJGPが閾値TH_BOJGP以下であれば路面輝度基準に含まれると判定し、ステップS2205へ移動する。   First, in step S2202, a luminance histogram HSTABJC [i] inside the obstacle candidate OBJC [i] is created. Next, in step S703, an error Err_OBJGP between the luminance histogram HSTABJC [i] inside the obstacle candidate OBJC [i] and the mixed Gaussian distribution model GP (G) set by the determination method setting unit 1041 is calculated. And compare with the threshold TH_BOJGP. If the error Err_OBJGP is greater than the threshold value TH_BOJGP, it is determined that it is not included in the road surface brightness reference, and the process proceeds to step S2204.

ステップS2204では、障害物候補を障害物と判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーする。ステップS2205では、障害物候補は障害物ではないと判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーせず、消去する。ステップS2206では、次で説明する複雑状態であると判定された場合の処理に入る。   In step S2204, the obstacle candidate is determined to be an obstacle, and the information of the obstacle candidate OBJC [i] is copied to the obstacle OBJ [j]. In step S2205, it is determined that the obstacle candidate is not an obstacle, and the information on the obstacle candidate OBJC [i] is deleted without being copied to the obstacle OBJ [j]. In step S2206, the process when it is determined that the state is a complex state described below is entered.

図23は、路面状態が[複雑状態]であると判定された場合の処理である。ステップS2301からステップS2304までの処理は、障害物候補OBJC[i]の数だけ処理を繰り返す。   FIG. 23 shows a process when it is determined that the road surface state is [complex state]. The processing from step S2301 to step S2304 is repeated by the number of obstacle candidates OBJC [i].

まず、ステップS2301にて、障害物候補周辺の輝度パターン、つまり俯瞰画像1015に対して障害物候補のみを含む領域を設定する。つぎに、ステップS2302にて、俯瞰画像1015に対して障害物候補のみを含むよう設定された領域内の画像が放射状であるかを判定する。図2を用いて説明したように、俯瞰画像1015は上空からの仮想視点の画像である。よって、歩行者20が存在する場合、俯瞰変換前の画像では図24(a)のように写っている歩行者20が、図24(b)のように放射状に写りこむ。このパターンは俯瞰画像1015上におけるカメラ設置位置から放射状に延びるため、障害物候補のみを含むよう設定された領域内の画像がカメラ設置位置から放射状になっているか否かを判定することで、障害物候補が立体物か否かを見分けることができる。   First, in step S2301, a region including only an obstacle candidate is set for the luminance pattern around the obstacle candidate, that is, the overhead image 1015. Next, in step S2302, it is determined whether the image in the region set to include only the obstacle candidate with respect to the overhead image 1015 is radial. As described with reference to FIG. 2, the bird's-eye view image 1015 is a virtual viewpoint image from the sky. Therefore, when the pedestrian 20 exists, the pedestrian 20 shown in FIG. 24A in the image before the overhead conversion is reflected radially as shown in FIG. Since this pattern extends radially from the camera installation position on the bird's-eye view image 1015, it is possible to determine whether or not the image within the region set to include only the obstacle candidate is radial from the camera installation position. It is possible to distinguish whether the object candidate is a three-dimensional object.

本実施例では、放射状であるかを判定する方法として、障害物候補のみを含むよう設定された領域内の画像からエッジ角度を算出し、各画素のエッジ角度DE[x][y]と、各画素の位置とカメラ設置位置が成す角度DC[x][y]の誤差が閾値TH_DEDC以内である画素をカウントし、カウントした画素が領域の面積に占める割合RROBJが閾値TH_RROBJ以上か否かに応じて判定する。閾値TH_DEDC、TH_RROBJはあらかじめ設定しておく。   In the present embodiment, as a method of determining whether the pixel is radial, an edge angle is calculated from an image in an area set to include only obstacle candidates, and the edge angle DE [x] [y] of each pixel is calculated. Pixels in which the error of the angle DC [x] [y] between the position of each pixel and the camera installation position is within the threshold TH_DEDC are counted, and whether or not the ratio RROBJ that the counted pixels occupy in the area of the area is greater than or equal to the threshold TH_RROBJ Judgment accordingly. The threshold values TH_DEDC and TH_RROBJ are set in advance.

ステップS2302にてRROBJが閾値TH_RROBJ以上であれば放射状でないと判定し、ステップS2304へ、閾値よりも小さければ放射状であると判定し、ステップS2303へ移動する。   If RROJ is greater than or equal to the threshold TH_RROBJ in step S2302, it is determined that it is not radial, and if it is less than the threshold, it is determined that it is radial, and the process moves to step S2303.

ステップS2303では、障害物候補を障害物と判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーする。ステップS2304では、障害物候補は障害物ではないと判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーせず、消去する。   In step S2303, the obstacle candidate is determined to be an obstacle, and the information of the obstacle candidate OBJC [i] is copied to the obstacle OBJ [j]. In step S2304, it is determined that the obstacle candidate is not an obstacle, and the information of the obstacle candidate OBJC [i] is not copied to the obstacle OBJ [j] but is deleted.

以上、障害物判定部3061において、障害物候補OBJC[i]の輝度と路面状態に応じた判定基準に基づいて、障害物候補OBJC[i]を障害物OBJ[j]に含めるか否かという処理を説明した。本実施例では、路面状態が[均一状態]、[多数色路面]であった場合には障害物候補OBJC[i]の内側の輝度ヒストグラムHSTOBJC[b]と混合ガウス分布近似モデルGP(G)の誤差の大きさに基づいて障害物候補が障害物であるか否かを判定する。また、路面が[複雑状態]であった場合には、障害物候補OBJ[i]のみを含む領域の輝度パターンが放射状の特徴を持つ度合いに基づいて判定する。このような処理により、路面状態に応じた判定が可能となり、障害物の誤認識を防ぐことが可能となる。   As described above, whether or not the obstacle candidate OBJC [i] is included in the obstacle OBJ [j] in the obstacle determination unit 3061 based on the determination criterion according to the luminance of the obstacle candidate OBJC [i] and the road surface condition. Explained the process. In this embodiment, when the road surface state is [uniform state] or [multi-color road surface], the luminance histogram HSOBJC [b] inside the obstacle candidate OBJC [i] and the mixed Gaussian distribution approximation model GP (G) It is determined whether the obstacle candidate is an obstacle based on the magnitude of the error. Further, when the road surface is [complex state], the determination is made based on the degree to which the luminance pattern of the region including only the obstacle candidate OBJ [i] has a radial feature. By such processing, it becomes possible to make a determination according to the road surface condition, and to prevent erroneous recognition of an obstacle.

[車両制御部]
つぎに、図25を用いて、車両制御部3081における処理の内容について説明する。
まず、ステップS2501にて、車載用画像処理装置3000より障害物情報OBJ[j]から、自車からの相対距離PX[j]、PY[j]を取得する。障害物情報OBJ[j]は、車載用画像処理装置3000からの信号を制御装置へ直接入力することによって取得してもよいし、LANを用いた通信を行うことによって取得してもよい。
[Vehicle control unit]
Next, the contents of processing in the vehicle control unit 3081 will be described with reference to FIG.
First, in step S2501, relative distances PX [j] and PY [j] from the vehicle are acquired from the obstacle information OBJ [j] from the in-vehicle image processing device 3000. The obstacle information OBJ [j] may be acquired by directly inputting a signal from the in-vehicle image processing device 3000 to the control device, or may be acquired by performing communication using a LAN.

以下、ステップS2502からS2505は、障害物数分だけ繰り返し処理を実施する。ステップS2502にて、障害物の位置PX[j]、PY[j]と1周期前の障害物の位置PX_z1[j]、PY_z1[j]との差分近似により算出する障害物との相対速度VX[j]、VY[j]を算出する。   Hereinafter, steps S2502 to S2505 are repeated for the number of obstacles. In step S2502, the relative speed VX with the obstacle calculated by the difference approximation between the obstacle positions PX [j] and PY [j] and the obstacle positions PX_z1 [j] and PY_z1 [j] of the previous cycle. [J] and VY [j] are calculated.

つぎに、ステップS2503にて、相対速度VX[j]、VY[j]が自車に向かってきているかを判定する。この判定は、例えば座標系として自車中心を原点とする座標系を考慮した場合に、障害物の位置PX[j]、PY[j]と自車の四隅を結ぶ直線の間に速度ベクトルの向きが入っているかを見ることで判定することができる。自車に向かってきている場合には、ステップS2504へ進み、向かってきていない場合は、ステップS2505へ進む。   Next, in step S2503, it is determined whether the relative speeds VX [j] and VY [j] are approaching the host vehicle. This determination is made, for example, when a coordinate system with the vehicle center as the origin is taken into consideration as a coordinate system, and the velocity vector between the obstacle positions PX [j], PY [j] and the straight lines connecting the four corners of the vehicle. This can be determined by looking at the orientation. If the vehicle is heading toward the host vehicle, the process proceeds to step S2504. If the vehicle is not heading, the process proceeds to step S2505.

ステップS2504では、衝突時間TTC[j]を算出する。TTC[j]は自車が障害物にあと何秒後に衝突するかを表すパラメータである。今回はステップS2503で自車方向へ向かってくる物体のみを扱うため、以下の式より求めることができる。
PL[j]=SQRT(PX[j]×PX[j]+PY[j]×PY[j])
VL[j]=SQRT(VX[j]×VX[j]+VY[j]×VY[j])
TTC[j]=PL[j]/VL[j]
In step S2504, the collision time TTC [j] is calculated. TTC [j] is a parameter indicating how many seconds after the own vehicle collides with the obstacle. In this case, since only an object heading toward the host vehicle is handled in step S2503, it can be obtained from the following equation.
PL [j] = SQRT (PX [j] × PX [j] + PY [j] × PY [j])
VL [j] = SQRT (VX [j] × VX [j] + VY [j] × VY [j])
TTC [j] = PL [j] / VL [j]

ここで、SQRT()は平方根を算出する関数である。
ステップS2505では、衝突の危険がないため、衝突時間TTC[j]に十分大きな値を代入する。本実施例ではTTC[j]=10000とする。
Here, SQRT () is a function for calculating the square root.
In step S2505, since there is no danger of a collision, a sufficiently large value is substituted for the collision time TTC [j]. In this embodiment, TTC [j] = 10000.

つぎに、ステップS2506にて、TTC[j]のうち最小衝突時間TTCMINを抽出する。つぎに、ステップS2507にて、最小衝突時間TTCMINと閾値TH_TTCBRKを比較する。最小衝突時間TTCMINが閾値TH_TTCBRK以下の場合はステップS2508へ移動し、車両のブレーキ制御を実行する。一方、最小衝突時間TTCMINが閾値TH_TTCBRKより大きい場合はステップS2509へ移動する。   Next, in step S2506, the minimum collision time TTCMIN is extracted from TTC [j]. Next, in step S2507, the minimum collision time TTCMIN is compared with the threshold value TH_TTCBRK. If the minimum collision time TTCMIN is less than or equal to the threshold value TH_TTCBRK, the process moves to step S2508 to execute vehicle brake control. On the other hand, if the minimum collision time TTCMIN is greater than the threshold value TH_TTCBRK, the process moves to step S2509.

ステップS2509では、最小衝突時間TTCMINと閾値TH_TTCALMを比較する。最小衝突時間TTCMINが閾値TH_TTCALM以下の場合はステップS2510へ移動し、車両の警報装置を動作させ、運転者へ注意喚起を実施する。一方、最小衝突時間TTCMINが閾値TH_TTCALMより大きい場合は車両制御部3081の処理を終了する。以上説明したように、車載用画像処理装置3000にて検出した障害物情報に応じて、上記警報やブレーキ制御を発動させることができる。   In step S2509, the minimum collision time TTCMIN is compared with the threshold value TH_TTCALM. When the minimum collision time TTCMIN is less than or equal to the threshold value TH_TTCALM, the process moves to step S2510, the vehicle alarm device is operated, and the driver is alerted. On the other hand, if the minimum collision time TTCMIN is greater than the threshold value TH_TTCALM, the processing of the vehicle control unit 3081 is terminated. As described above, the alarm and the brake control can be activated according to the obstacle information detected by the in-vehicle image processing device 3000.

以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the present invention described in the claims. It can be changed. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to one having all the configurations described. Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment. Furthermore, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

1000 車載用画像処理装置
1001〜1004 カメラ
1021 画像取得部
1031 路面状態推定部
1041 判定方法設定部
1051 白線候補検出部
1061 白線判定部
1071 駐車枠認識部
1081 駐車支援制御部
2000 車載用画像処理装置
2091 汚れ検出部
2061 白線判定部
2071 駐車枠認識部
2081 駐車支援制御部
3000 車載用画像処理装置
3051 障害物候補検出部
3061 障害物判定部
3081 車両制御部
1000 In-vehicle image processing devices 1001 to 1004 Camera 1021 Image acquisition unit 1031 Road surface state estimation unit 1041 Determination method setting unit 1051 White line candidate detection unit 1061 White line determination unit 1071 Parking frame recognition unit 1081 Parking support control unit 2000 In-vehicle image processing device 2091 Dirt detection unit 2061 White line determination unit 2071 Parking frame recognition unit 2081 Parking support control unit 3000 In-vehicle image processing device 3051 Obstacle candidate detection unit 3061 Obstacle determination unit 3081 Vehicle control unit

Claims (7)

路面上の対象物を検出する車載用画像処理装置であって、
自車周囲を撮像した画像を取得する画像取得部と、
該画像の自車近傍領域の輝度分布に基づいて自車周囲の路面状態が予め設定された複数の路面状態のいずれに属するのかを推定する路面状態推定部と、
該推定された路面状態に応じて対象物の判定方法を設定する判定方法設定部と、
前記画像から前記対象物と推定される対象物候補を検出する対象物候補検出部と、
前記判定方法を用いて前記対象物候補が前記対象物であるか否かを判定する対象物判定部と、
を有し、
前記路面状態推定部は、前記輝度分布が1または2のガウス分布にて近似できるか否かに基づいて前記路面状態が前記複数の路面状態のうちの複雑状態であるか否かを推定し、
前記判定方法設定部は、前記路面状態推定部により前記路面状態が前記複雑状態であると推定された場合に、前記対象物候補の輝度パターンが放射状か否かに基づいて判定する判定方法を設定する
ことを特徴とする車載用画像処理装置。
An in-vehicle image processing device that detects an object on a road surface,
An image acquisition unit for acquiring an image of the surroundings of the vehicle;
A road surface state estimation unit for estimating which road surface state around the vehicle belongs to one of a plurality of preset road surface states based on the luminance distribution in the vehicle vicinity region of the image;
A determination method setting unit that sets a determination method of an object according to the estimated road surface state;
An object candidate detection unit for detecting an object candidate estimated as the object from the image;
An object determination unit that determines whether or not the object candidate is the object using the determination method;
I have a,
The road surface state estimation unit estimates whether the road surface state is a complex state of the plurality of road surface states based on whether the luminance distribution can be approximated by a Gaussian distribution of 1 or 2.
The determination method setting unit sets a determination method for determining based on whether or not the brightness pattern of the target object is radial when the road surface state estimation unit estimates that the road surface state is the complex state. An in-vehicle image processing apparatus.
前記路面状態推定部は、前記画像の輝度分布が1のピークを有する単一ガウス分布に近似可能な均一状態か否かを判定し、
前記判定方法設定部は、前記路面状態が均一状態であると判定された場合に前記輝度分布から単一の輝度範囲を判定基準として前記対象物を判定する判定方法を設定することを特徴とする請求項1に記載の車載用画像処理装置。
The road surface state estimation unit determines whether the luminance distribution of the image is a uniform state that can be approximated to a single Gaussian distribution having a peak of 1,
The determination method setting unit sets a determination method for determining the object based on a single luminance range as a determination criterion from the luminance distribution when it is determined that the road surface state is a uniform state. The in-vehicle image processing apparatus according to claim 1 .
前記路面状態推定部は、前記画像の輝度分布が2のピークを有する混合ガウス分布に近似できるか否かを判定し、前記混合ガウス分布に近似できないと判定した場合に、前記路面状態が前記複雑状態であると推定することを特徴とする請求項2に記載の車載用画像処理装置。 The road surface state estimation unit determines whether or not the luminance distribution of the image can be approximated to a mixed Gaussian distribution having two peaks, and determines that the road surface state cannot be approximated to the mixed Gaussian distribution. The in-vehicle image processing apparatus according to claim 2 , wherein the in-vehicle image processing apparatus is estimated to be in a state. 前記路面状態推定部は、前記画像の輝度分布が2のピークを有する混合ガウス分布に近似できる場合に、路面パターンに基づいて前記路面状態が反射状態と明暗分離状態のいずれであるかを判定し、
前記判定方法設定部は、前記路面状態が前記反射状態であると判定された場合に前記対象物候補の輝度パターンが放射状か否かに基づいて判定する判定方法を設定することを特徴とする請求項3に記載の車載用画像処理装置。
The road surface state estimation unit determines whether the road surface state is a reflection state or a light / dark separation state based on a road surface pattern when the luminance distribution of the image can be approximated to a mixed Gaussian distribution having two peaks. ,
The determination method setting unit, wherein said road surface condition and sets a determination method based on whether luminance pattern of the object candidate or radially when it is determined that the a reflective state Item 4. The on-vehicle image processing device according to Item 3 .
前記路面状態推定部は、前記混合ガウス分布のうちの平均輝度の低いガウス分布に属している画素を抽出した2値画像に対してラベリング処理を行い、各ラベルの形状を見ることで前記路面状態が反射状態と明暗分離状態のいずれであるかを判定することを特徴とする請求項4に記載の車載用画像処理装置。 The road surface state estimation unit performs a labeling process on a binary image obtained by extracting pixels belonging to a Gaussian distribution having a low average luminance in the mixed Gaussian distribution, and looks at the shape of each label to thereby determine the road surface state. The vehicle-mounted image processing apparatus according to claim 4 , wherein the image processing apparatus determines whether the state is a reflection state or a light / dark separation state. 前記路面状態推定部は、前記路面状態が前記明暗分離状態であると判定した場合に、前記路面状態が前記画像に自車の影が映り込む日陰日向状態であるか否かを判定し、
前記判定方法設定部は、前記日陰日向状態であると判定された場合に、予め設定された日向路面輝度基準と日陰路面輝度基準を判定基準として前記対象物を判定する判定方法を設定し、
前記対象物判定部は、前記日陰日向状態であると判定された場合に、前記判定方法により、前記対象物候補の内側輝度分布が前記日向路面輝度基準に含まれており、かつ前記対象物候補の外側輝度分布が前記日陰路面輝度基準に含まれているときは前記対象物候補が前記対象物ではないと判定し、前記対象物候補の内側輝度分布が前記日向路面輝度基準に含まれていない、又は前記対象物候補の外側輝度分布が前記日陰路面輝度基準に含まれていないときは前記対象物候補が前記対象物であると判定することを特徴とする請求項5に記載の車載用画像処理装置。
When the road surface state estimation unit determines that the road surface state is the light / dark separation state, the road surface state determination unit determines whether or not the road surface state is a shaded and sunny state in which a shadow of the vehicle is reflected in the image,
The determination method setting unit sets a determination method for determining the object based on a predetermined sun road surface luminance reference and a shade road surface luminance reference as a determination reference when the shade method is determined to be in the shaded sun state.
When it is determined that the object determination unit is in the shaded and sunny state, the object method includes an inner luminance distribution of the object candidate included in the sun road surface luminance reference, and the object candidate. Is determined to be not the target object, and the inner luminance distribution of the target candidate is not included in the sunny road surface brightness reference. 6. The vehicle-mounted image according to claim 5 , wherein when the outer luminance distribution of the object candidate is not included in the shade road surface luminance reference, the object candidate is determined to be the object. Processing equipment.
カメラのレンズ汚れの位置を検出するレンズ汚れ検出部と、
前記路面状態推定部により前記路面状態が複雑状態であると推定された場合には、前記対象物候補の内側輝度分布における放射状エッジの割合に基づいて、複雑状態であると推定されなかった場合には、前記対象物候補の内側輝度分布と混合ガウス分布モデルとの誤差に基づいて第一の信頼度を算出する第一の信頼度算出部と、
前記レンズ汚れ検出部にて検出されたレンズ汚れ位置に基づいて第二の信頼度を算出する第二の信頼度算出部を有し、
前記対象物判定部は、前記第一の信頼度および第二の信頼度に基づいて前記対象物候補が前記対象物であるか否かを判定することを特徴とする請求項1に記載の車載用画像処理装置。
A lens dirt detector for detecting the position of the camera lens dirt,
When the road surface state estimation unit estimates that the road surface state is a complex state, based on the ratio of radial edges in the inner luminance distribution of the object candidate, when it is not estimated to be a complex state A first reliability calculation unit that calculates a first reliability based on an error between the inner luminance distribution of the object candidate and a mixed Gaussian distribution model ;
A second reliability calculation unit that calculates a second reliability based on the lens contamination position detected by the lens contamination detection unit ;
The on-vehicle object according to claim 1, wherein the object determination unit determines whether or not the object candidate is the object based on the first reliability and the second reliability. Image processing device.
JP2014057391A 2014-03-20 2014-03-20 In-vehicle image processing apparatus and vehicle system using the same Active JP6313081B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014057391A JP6313081B2 (en) 2014-03-20 2014-03-20 In-vehicle image processing apparatus and vehicle system using the same
PCT/JP2015/050507 WO2015141247A1 (en) 2014-03-20 2015-01-09 In-vehicle image processing device and vehicle system using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014057391A JP6313081B2 (en) 2014-03-20 2014-03-20 In-vehicle image processing apparatus and vehicle system using the same

Publications (3)

Publication Number Publication Date
JP2015179482A JP2015179482A (en) 2015-10-08
JP2015179482A5 JP2015179482A5 (en) 2016-08-18
JP6313081B2 true JP6313081B2 (en) 2018-04-18

Family

ID=54144227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014057391A Active JP6313081B2 (en) 2014-03-20 2014-03-20 In-vehicle image processing apparatus and vehicle system using the same

Country Status (2)

Country Link
JP (1) JP6313081B2 (en)
WO (1) WO2015141247A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6091586B1 (en) * 2015-11-12 2017-03-08 三菱電機株式会社 VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
DE102016211227A1 (en) * 2016-06-23 2017-12-28 Conti Temic Microelectronic Gmbh Method and vehicle control system for generating images of an environment model and corresponding vehicle
JP6773540B2 (en) * 2016-12-07 2020-10-21 クラリオン株式会社 In-vehicle image processing device
JP6789151B2 (en) * 2017-02-24 2020-11-25 京セラ株式会社 Camera devices, detectors, detection systems and mobiles
JP6847709B2 (en) * 2017-02-24 2021-03-24 京セラ株式会社 Camera devices, detectors, detection systems and mobiles
JP6672202B2 (en) * 2017-03-03 2020-03-25 株式会社デンソーアイティーラボラトリ In-vehicle camera system, attached matter detection device, attached matter removal method, and attached matter detection program
US11535152B2 (en) 2017-09-29 2022-12-27 Hitachi Astemo, Ltd. Parking support device
US11518390B2 (en) * 2018-04-16 2022-12-06 Mitsubishi Electric Corporation Road surface detection apparatus, image display apparatus using road surface detection apparatus, obstacle detection apparatus using road surface detection apparatus, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP7230658B2 (en) * 2019-04-16 2023-03-01 株式会社デンソー Image processing device
CN112541464A (en) * 2020-12-21 2021-03-23 北京百度网讯科技有限公司 Method and device for determining associated road object, road side equipment and cloud control platform
JP2023174087A (en) 2022-05-27 2023-12-07 株式会社Subaru Stop line recognition device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3065418B2 (en) * 1992-01-08 2000-07-17 富士通株式会社 Image processing apparatus and method
JP3800992B2 (en) * 2001-06-06 2006-07-26 日産自動車株式会社 Lane tracking control device
JP4941843B2 (en) * 2008-02-28 2012-05-30 日本電気株式会社 Road marking image processing apparatus, road marking image processing method, and road marking image processing program
JP5321267B2 (en) * 2009-06-16 2013-10-23 日産自動車株式会社 Vehicular image display device and overhead image display method
JP5761601B2 (en) * 2010-07-01 2015-08-12 株式会社リコー Object identification device
CN104520913B (en) * 2012-07-03 2016-12-07 歌乐株式会社 Vehicle environment identification device

Also Published As

Publication number Publication date
JP2015179482A (en) 2015-10-08
WO2015141247A1 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
JP6313081B2 (en) In-vehicle image processing apparatus and vehicle system using the same
CN109844762B (en) In-vehicle image processing apparatus
CN108960183B (en) Curve target identification system and method based on multi-sensor fusion
CN106485233B (en) Method and device for detecting travelable area and electronic equipment
JP4420011B2 (en) Object detection device
JP5283967B2 (en) In-vehicle object detection device
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
US10984557B2 (en) Camera calibration using traffic sign recognition
EP2521111B1 (en) Road-shoulder detecting device and vehicle using road-shoulder detecting device
US20180099663A1 (en) Vehicle with environmental context analysis
US10699567B2 (en) Method of controlling a traffic surveillance system
TW201704067A (en) Collision avoidance method, computer program product for said collision avoidance method and collision avoidance system
JP6547785B2 (en) Target detection device
US10752223B2 (en) Autonomous emergency braking system and method for vehicle at crossroad
CN109827516B (en) Method for measuring distance through wheel
JP2006031162A (en) Moving obstacle detection device
KR101448506B1 (en) Measurement Method and Apparatus for Measuring Curvature of Lane Using Behavior of Preceding Vehicle
Suzuki et al. Sensor fusion-based pedestrian collision warning system with crosswalk detection
JP2018048949A (en) Object recognition device
CN114415171A (en) Automobile travelable area detection method based on 4D millimeter wave radar
JP2002334330A (en) Vehicle recognition device
KR101568745B1 (en) Vehicle assistant apparatus and method based on infrared images
CN114537447A (en) Safe passing method and device, electronic equipment and storage medium
CN113432615A (en) Detection method and system based on multi-sensor fusion drivable area and vehicle
JP3586938B2 (en) In-vehicle distance measuring device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180322

R150 Certificate of patent or registration of utility model

Ref document number: 6313081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150