JP2012194872A - Passage detection device, method and program - Google Patents

Passage detection device, method and program Download PDF

Info

Publication number
JP2012194872A
JP2012194872A JP2011059279A JP2011059279A JP2012194872A JP 2012194872 A JP2012194872 A JP 2012194872A JP 2011059279 A JP2011059279 A JP 2011059279A JP 2011059279 A JP2011059279 A JP 2011059279A JP 2012194872 A JP2012194872 A JP 2012194872A
Authority
JP
Japan
Prior art keywords
area
passage
detection
region
central
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011059279A
Other languages
Japanese (ja)
Other versions
JP5648546B2 (en
Inventor
Tomohiro Suzuki
智広 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2011059279A priority Critical patent/JP5648546B2/en
Publication of JP2012194872A publication Critical patent/JP2012194872A/en
Application granted granted Critical
Publication of JP5648546B2 publication Critical patent/JP5648546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a passage detection device capable of detecting a passage more accurately than conventional devices by increasing detection accuracy of a wheel rut.SOLUTION: Provided is a passage detection device 1 which detects a passage area included in an input image which is an image obtained by imaging a predetermined imaging area. The device includes: a central block extraction section 31 which extracts a central area of the passage area by subjecting the input image to predetermined image processing; a vegetation detection section 32 which detects whether or not an object to be imaged is a plant by using an infrared image obtained by imaging the imaging area; a central block correction section 33 which corrects a position of the central area extracted by the central block extraction section 31 based on the detection result by the vegetation detection section 32; and a passage area detection section 34 which detects the passage area by using as a reference the central area corrected in position by the central block correction section 33.

Description

本発明は、車両の走行通路等の通路を検出する通路検出装置、方法、及びプログラムに関する。   The present invention relates to a path detection device, a method, and a program for detecting a path such as a traveling path of a vehicle.

従来から、車載カメラ等で撮影した画像に対する画像処理を行って、舗装された走行通路上の白線等に基づいて走行通路を自動的に検出し、その検出結果に基づいて車両の運転状態を自動制御する技術が開発されている。また、近年では、かかる技術を発展させ、舗装された走行通路のみならず、林道や災害現場或いは工事現場等の不整地・未舗装路を無人で走行可能な災害救助車両や工事車両等の車両の開発も盛んに行われている。   Conventionally, image processing is performed on images taken with an in-vehicle camera, etc., and a traveling path is automatically detected based on a white line on a paved traveling path, and the driving state of the vehicle is automatically detected based on the detection result. Control technology has been developed. Also, in recent years, such technology has been developed, and not only paved travel paths, but also vehicles such as disaster rescue vehicles and construction vehicles that can run unmanned on rough roads and unpaved roads such as forest roads, disaster sites or construction sites. Is also being actively developed.

以下の特許文献1には、道路の轍を検出して轍を避けて走行するようにした車両用自動操舵装置が開示されている。この車両用自動操舵装置は、レーザ光で車両前方を走査して得られる車両前方の撮像画像を処理して道路の白線と轍を検出し、白線の検出結果及び車速検出値に基づいて目標操舵角を演算するとともに、道路の轍の検出結果に基づいて目標操舵角を補正し、操舵角検出値が補正後の目標操舵角となるようにステアリングを駆動制御している。   Patent Document 1 below discloses an automatic steering device for a vehicle that detects a saddle on a road and runs while avoiding the saddle. This automatic steering device for a vehicle processes a captured image in front of the vehicle obtained by scanning the front of the vehicle with a laser beam to detect white lines and wrinkles on the road, and performs target steering based on the detection result of the white line and the detected vehicle speed. The angle is calculated, the target steering angle is corrected based on the detection result of the road tack, and the steering is driven and controlled so that the detected steering angle value becomes the corrected target steering angle.

また、以下の特許文献2には、不整地・未舗装路等のように道路の境界が明確に存在しない場所を、撮像装置によって撮像した画像を用いて自律走行する自律走行体の走行制御方法の一例が開示されている。具体的には、走行体に搭載される撮像装置によって撮像された画像を複数の領域に分割し、各分割領域毎に求めた分割領域内の特徴量と所定の閾値とを比較して追従対象領域を抽出し、この追従対象領域上に設定した注視点に向かうための走行体の操舵角を算出して操舵制御している。   Further, in Patent Document 2 below, a traveling control method for an autonomous traveling body that autonomously travels, using an image captured by an imaging device, in a place where there is no clear road boundary, such as rough terrain and an unpaved road, etc. An example is disclosed. Specifically, the image captured by the imaging device mounted on the traveling body is divided into a plurality of areas, and the feature amount in the divided area obtained for each divided area is compared with a predetermined threshold value to be followed. A region is extracted, and steering control is performed by calculating a steering angle of the traveling body to go to the gazing point set on the tracking target region.

また、本発明の背景となる他の技術を開示するものとして、特許文献3〜特許文献5がある。   Moreover, there are Patent Documents 3 to 5 as other techniques disclosing the background of the present invention.

特許第3582449号公報Japanese Patent No. 35582449 特開2002−132343号公報JP 2002-132343 A 特許第2836949号公報Japanese Patent No. 2836949 特開2011−8439号公報JP 2011-8439 A 特開2009−281931号公報JP 2009-289311 A

ところで、従来は、画像の輝度又は画像の輝度の変化を基準として轍の検出を行っている。例えば、画像の輝度が所定の閾値以下である領域を轍として検出し、或いは輝度の変化率が大きい場所を轍のエッジとみなして轍である領域とそれ以外の領域とに分割している。しかしながら、輝度を基準とする方法では、明るさが周囲と殆ど同じで路面の粗さだけが異なるような轍を検出することができないという問題がある。また、輝度の変化に基づいて轍を検出する方法では、例えば草が茂るなどして轍の境界が曖昧な未舗装路に対応することができないという問題がある。   Conventionally, wrinkles are detected based on the luminance of an image or a change in luminance of the image. For example, a region where the luminance of the image is equal to or less than a predetermined threshold is detected as a wrinkle, or a place where the change rate of luminance is large is regarded as a wrinkle edge and divided into a region that is a wrinkle and other regions. However, the method based on the luminance has a problem that it is impossible to detect a wrinkle whose brightness is almost the same as that of the surroundings and only the road surface roughness is different. In addition, the method for detecting a hail based on a change in luminance has a problem that it cannot cope with an unpaved road where the hail boundary is ambiguous due to, for example, grass.

本発明は、上記事情に鑑みてなされたものであり、轍の検出精度を高めることによって、従来よりも精確に通路を検出することができる通路検出装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a path detection device, method, and program capable of detecting a path more accurately than in the past by increasing the detection accuracy of wrinkles. And

上記課題を解決するため、本発明は、所定の撮影領域を撮影した画像である入力画像に含まれる通路領域を検出する通路検出装置であって、前記入力画像に対して所定の画像処理を行うことで前記通路領域の中心領域を抽出する抽出手段と、前記撮影領域を撮影した赤外線画像を用いて、撮影対象が植物であるか否かを検出する植生検出手段と、前記植生検出手段による検出結果に基づいて、前記抽出手段によって抽出された前記中心領域の位置を補正する補正手段と、前記補正手段によって位置が補正された中心領域を基準として、前記通路領域を検出する通路領域検出手段とを備えることを特徴とする。   In order to solve the above-described problems, the present invention is a passage detection device that detects a passage region included in an input image that is an image obtained by photographing a predetermined photographing region, and performs predetermined image processing on the input image. Extracting means for extracting the center area of the passage area, vegetation detecting means for detecting whether or not the photographing object is a plant using an infrared image obtained by photographing the photographing area, and detection by the vegetation detecting means Based on the result, correction means for correcting the position of the central area extracted by the extraction means, and passage area detection means for detecting the passage area on the basis of the central area whose position has been corrected by the correction means; It is characterized by providing.

本発明によれば、赤外線画像を用いて撮影対象が植物であるか否かを検出する植生検出手段の検出結果に基づいて、画像処理を用いて抽出手段によって抽出された中心領域の位置が、補正手段によって補正される。そして、補正手段によって位置が補正された中心領域を基準として、通路領域検出手段によって通路領域が検出される。そのため、抽出手段によって抽出された中心領域に植物が存在していた場合には、容易に、植物が比較的存在していない位置に、その中心領域の位置を補正することができる。したがって、通路領域検出手段は、植物が比較的存在していない中心領域を基準として通路領域を検出することができる。よって、植物が存在することによる影響によって通路検出の精度が低下してしまうことを抑えることができ、植物が茂ることで轍や境界が曖昧となった未舗装路も精確に検出することができる。   According to the present invention, based on the detection result of the vegetation detection unit that detects whether or not the photographing target is a plant using an infrared image, the position of the central region extracted by the extraction unit using image processing is It is corrected by the correcting means. Then, the passage area detection means detects the passage area with reference to the center area whose position is corrected by the correction means. Therefore, when a plant is present in the central area extracted by the extracting means, the position of the central area can be easily corrected to a position where the plant is relatively absent. Therefore, the passage area detection means can detect the passage area on the basis of the central area where plants are relatively absent. Therefore, it can suppress that the accuracy of passage detection falls by the influence by the existence of a plant, and can detect the unpaved road where the ridge and the boundary became ambiguous by the plant growing. .

本発明の一実施形態による通路検出装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the channel | path detection apparatus by one Embodiment of this invention. 車載カメラ100の一例を示す図である。It is a figure which shows an example of the vehicle-mounted camera. 乾燥状態での反射率の一例を示す図である。It is a figure which shows an example of the reflectance in a dry state. 濡れ状態での反射率の一例を示す図である。It is a figure which shows an example of the reflectance in a wet state. 図1の植物検出部32の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the plant detection part 32 of FIG. 補正前の中心ブロックの一例を示す図である。It is a figure which shows an example of the center block before correction | amendment. 中心ブロックの補正処理に関する説明図である。It is explanatory drawing regarding the correction process of a center block. 図6に示す中心ブロックを補正した場合の一例を示す図である。It is a figure which shows an example at the time of correct | amending the center block shown in FIG. 図6に示す補正前の中心ブロックを用いて通路を検出した結果の一例を示す図である。It is a figure which shows an example of the result of having detected the channel | path using the center block before correction | amendment shown in FIG. 図8に示す補正後の中心ブロックを用いて通路を検出した結果の一例を示す図である。It is a figure which shows an example of the result of having detected the channel | path using the center block after correction | amendment shown in FIG. 特徴量の分布の一例を示す図である。It is a figure which shows an example of distribution of a feature-value. 検出動作の全体的な流れを示すフローチャートである。It is a flowchart which shows the whole flow of detection operation | movement. 中心ブロックを抽出する処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process which extracts a center block. 車載カメラから得られる入力画像の一例を示す図である。It is a figure which shows an example of the input image obtained from a vehicle-mounted camera. 小領域形成部31aのフィルタリング処理に関する説明図である。It is explanatory drawing regarding the filtering process of the small area | region formation part 31a. 小領域形成部31aのテクスチャ方向特定処理に関する説明図である。It is explanatory drawing regarding the texture direction specific process of the small area formation part 31a. 小領域形成部31aの投票処理に関する説明図である。It is explanatory drawing regarding the voting process of the small area | region formation part 31a. 小領域形成部31aの投票処理に関する説明図である。It is explanatory drawing regarding the voting process of the small area | region formation part 31a. 小領域形成部31aの投票処理に関する説明図である。It is explanatory drawing regarding the voting process of the small area | region formation part 31a. 小領域形成部31aの消失点特定処理に関する説明図である。It is explanatory drawing regarding the vanishing point specific process of the small area | region formation part 31a. 小領域形成部31aの消失点特定処理に関する説明図である。It is explanatory drawing regarding the vanishing point specific process of the small area | region formation part 31a. 小領域形成部31aの小領域分割処理に関する説明図である。It is explanatory drawing regarding the small region division | segmentation process of the small region formation part 31a. 小領域形成部31aの小領域分割処理に関する説明図である。It is explanatory drawing regarding the small region division | segmentation process of the small region formation part 31a. 小領域選別部31bのノイズフィルタリング処理に関する説明図である。It is explanatory drawing regarding the noise filtering process of the small area selection part 31b. 小領域選別部31bのノイズフィルタリング処理に関する説明図である。It is explanatory drawing regarding the noise filtering process of the small area selection part 31b. 小領域選別部31bのノイズフィルタリング処理に関する説明図である。It is explanatory drawing regarding the noise filtering process of the small area selection part 31b. 通路領域推定部31cのクラスタリング処理に関する説明図である。It is explanatory drawing regarding the clustering process of the channel | path area estimation part 31c. 通路領域推定部31cのクラスタリング処理に関する説明図である。It is explanatory drawing regarding the clustering process of the channel | path area estimation part 31c. 通路領域推定部30cの最適クラスタ選択処理に関する説明図である。It is explanatory drawing regarding the optimal cluster selection process of the channel | path area estimation part 30c. 通路領域推定部30cの最適クラスタ選択処理に関する説明図である。It is explanatory drawing regarding the optimal cluster selection process of the channel | path area estimation part 30c. 中心ブロック抽出部31における中心線推定部30dの中心線推定処理を表すフローチャートである。It is a flowchart showing the centerline estimation process of the centerline estimation part 30d in the center block extraction part 31. 中心線推定部31dの中心線推定処理に関する説明図である。It is explanatory drawing regarding the centerline estimation process of the centerline estimation part 31d. 中心線推定部31dの中心線推定処理に関する説明図である。It is explanatory drawing regarding the centerline estimation process of the centerline estimation part 31d. 中心線推定部31dの中心線推定処理に関する説明図である。It is explanatory drawing regarding the centerline estimation process of the centerline estimation part 31d. 推定された中心線から中心ブロックが抽出される様子を示す図である。It is a figure which shows a mode that a center block is extracted from the estimated center line. 補正された中心ブロックの一例を示す図である。It is a figure which shows an example of the correct | amended center block. 基準ブロックを説明するための図である。It is a figure for demonstrating a reference | standard block. 検出された通路領域の一例を示す図である。It is a figure which shows an example of the detected channel | path area | region.

以下、図面を参照して本発明の一実施形態による通路検出装置、方法、及びプログラムについて詳細に説明する。図1は、本発明の一実施形態による通路検出装置の要部構成を示すブロック図である。図1に示す通り、本実施形態の通路検出装置1は、A/D(アナログ/ディジタル)コンバータ10、記憶装置20、画像処理装置30、及びRAM(Random Access Memory)40を備えており、外部から入力される画像信号から未舗装路の轍を通路領域として検出する。尚、図1に示す通路検出装置1は、例えばパーソナルコンピュータ等のコンピュータによって実現され、災害救助車両や工事車両等の特殊車両に搭載されて車両の進行方向を撮影する車載カメラ(図示省略)から入力される画像信号から轍を通路領域として検出する。   Hereinafter, a passage detection device, method, and program according to an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a main configuration of a path detection device according to an embodiment of the present invention. As shown in FIG. 1, the path detection device 1 of this embodiment includes an A / D (analog / digital) converter 10, a storage device 20, an image processing device 30, and a RAM (Random Access Memory) 40. From the image signal input from, the edge of the unpaved road is detected as a passage area. 1 is realized by a computer such as a personal computer, for example, and is mounted on a special vehicle such as a disaster rescue vehicle or a construction vehicle, and is mounted on an in-vehicle camera (not shown) that captures the traveling direction of the vehicle.轍 is detected as a passage area from the input image signal.

A/Dコンバータ10は、不図示の車載カメラから入力される画像信号をディジタルデータに変換し、入力画像を示す入力画像データとして画像処理装置30に出力する。尚、本実施形態においては、図2に示すような車載カメラ100から入力画像信号が供給されるものとする。   The A / D converter 10 converts an image signal input from a vehicle-mounted camera (not shown) into digital data, and outputs it to the image processing apparatus 30 as input image data indicating an input image. In this embodiment, it is assumed that an input image signal is supplied from the in-vehicle camera 100 as shown in FIG.

図2に示す車載カメラ100は、レンズ111、ハーフミラー112a及び112b、水吸収波長帯透過フィルタ113、レンズ114、InSb(Indium Antimonide)半導体受光素子115、近赤外透過フィルタ116、レンズ117、CCD(charge−coupled device)受光素子118、赤外遮断フィルタ(すなわち近赤外カットフィルタ)119、レンズ120及びCCD受光素子121を具備する。ハーフミラー(もしくは、ダイクロイックミラー)112a及び112bは、入射光の一部を反射し、一部を透過させる。   2 includes a lens 111, half mirrors 112a and 112b, a water absorption wavelength band transmission filter 113, a lens 114, an InSb (Indium Antimonide) semiconductor light receiving element 115, a near-infrared transmission filter 116, a lens 117, and a CCD. (Charge-coupled device) A light receiving element 118, an infrared cutoff filter (that is, a near infrared cut filter) 119, a lens 120, and a CCD light receiving element 121 are provided. The half mirrors (or dichroic mirrors) 112a and 112b reflect a part of incident light and transmit a part thereof.

ここで、水吸収波長帯の波長とは、水分によって吸収されやすい波長帯の波長であって、例えば短波赤外(Short Wave InfraRed、以下、適宜「SWIR」と記載する。)内にある水の吸収波長(1450nm±50 nm、もしくは、1940nm±100nm)が該当する。また、InSb半導体受光素子115は、フォトダイオードをアレイ状に形成したイメージセンサであり、短波赤外を電気信号に変換する。このInSb半導体受光素子115には、レンズ111を透過し、ハーフミラー112aで反射し、さらにハーフミラー112b及び水吸収波長帯透過フィルタ113を透過し、レンズ114で収束された短波赤外線が入射する。   Here, the wavelength of the water absorption wavelength band is a wavelength in a wavelength band that is easily absorbed by moisture, and is, for example, water in short wave infrared (Short Wave InfraRed, hereinafter referred to as “SWIR” as appropriate). This corresponds to the absorption wavelength (1450 nm ± 50 nm or 1940 nm ± 100 nm). The InSb semiconductor light receiving element 115 is an image sensor in which photodiodes are formed in an array, and converts shortwave infrared light into an electrical signal. The InSb semiconductor light receiving element 115 is incident with short-wave infrared light that is transmitted through the lens 111, reflected by the half mirror 112 a, further transmitted through the half mirror 112 b and the water absorption wavelength band transmission filter 113, and converged by the lens 114.

一方、CCD受光素子118には、レンズ111を透過し、ハーフミラー112aで反射し、ハーフミラー112bで反射し、さらに近赤外透過フィルタ116を透過し、レンズ117で収束された近赤外線(Near−visible Infra Red、以下適宜「NIR」と記載する。)が入射する。近赤外透過フィルタ116としては、例えば波長800nm以上の光のみを透過するロングパスフィルタを使用することができる。なお、本実施形態で用いるNIRの波長としては、800nm〜1300nmの任意の帯域を用いることができる。ただし、この例の場合、近赤外透過フィルタ116による下限波長800nmと、CCD受光素子の受光波長の上限である900nmから1100nmくらいとの間の帯域が使用されることになる。   On the other hand, the CCD light receiving element 118 is transmitted through the lens 111, reflected by the half mirror 112a, reflected by the half mirror 112b, further transmitted through the near infrared transmission filter 116, and converged by the lens 117 (Near). −visible Infra Red, hereinafter referred to as “NIR” as appropriate). As the near-infrared transmission filter 116, for example, a long pass filter that transmits only light having a wavelength of 800 nm or more can be used. In addition, as a wavelength of NIR used in the present embodiment, an arbitrary band of 800 nm to 1300 nm can be used. However, in this example, a band between the lower limit wavelength of 800 nm by the near-infrared transmission filter 116 and the upper limit of the light receiving wavelength of the CCD light receiving element, from 900 nm to about 1100 nm, is used.

また、CCD受光素子121には、レンズ111を透過し、ハーフミラー112aを透過し、さらに赤外遮断フィルタ120を透過し、レンズ120で収束された可視光が入射する。   Further, visible light converged by the lens 120 is incident on the CCD light receiving element 121 through the lens 111, through the half mirror 112 a, and further through the infrared cutoff filter 120.

尚、本実施形態では、CCD受光素子121から、一例として、視野が約60°であって解像度がVGA(Video Graphics Array;横640画素×縦480画素)であり、モノクロの画像信号が出力されることとする。つまり、CCD受光素子121からは、横640×縦480個の各画素の輝度を示す輝度データからなる画像信号が出力される。CCD受光素子121から出力される画像信号は、可視光画像を表す信号であり、A/Dコンバータ10を介して中心ブロック抽出部31へ入力される。ただし、車載カメラ100からディジタル化された画像信号が出力される場合には、A/Dコンバータ10を省略することができる。   In the present embodiment, as an example, the CCD light receiving element 121 has a visual field of about 60 ° and a resolution of VGA (Video Graphics Array; horizontal 640 pixels × vertical 480 pixels), and outputs a monochrome image signal. I will do it. In other words, the CCD light receiving element 121 outputs an image signal composed of luminance data indicating the luminance of each of the pixels of horizontal 640 × vertical 480. The image signal output from the CCD light receiving element 121 is a signal representing a visible light image, and is input to the central block extraction unit 31 via the A / D converter 10. However, when a digitized image signal is output from the in-vehicle camera 100, the A / D converter 10 can be omitted.

他方、InSb半導体受光素子115及びCCD受光素子118からも、視野が約60°であって横640×縦480個の各画素の輝度を示す輝度データからなる画像信号が出力される。ここで、InSb半導体受光素子115から出力される画像信号は、遠赤外線画像を表す信号であり、A/Dコンバータ10を介して植生検出部32へ入力される。また、CCD受光素子118から出力される画像信号は、近赤外線画像を表す信号であり、A/Dコンバータ10を介して植生検出部32へ入力される。   On the other hand, the InSb semiconductor light receiving element 115 and the CCD light receiving element 118 also output image signals composed of luminance data having a visual field of about 60 ° and indicating the luminance of each of the horizontal 640 × vertical 480 pixels. Here, the image signal output from the InSb semiconductor light receiving element 115 is a signal representing a far-infrared image, and is input to the vegetation detection unit 32 via the A / D converter 10. The image signal output from the CCD light receiving element 118 is a signal representing a near-infrared image, and is input to the vegetation detection unit 32 via the A / D converter 10.

なお、図2に示す車載カメラ100は、単一のカメラ内にハーフミラー等を備え、そのハーフミラー等で分光することで可視光画像と赤外線画像とを含む複数種類の画像信号を出力可能としたものである。ただし、本発明の通路検出装置に入力される画像信号は、単一のカメラで撮影したものに限らず、複数のカメラを用いて撮影したものであってもよい。すなわち複数のカメラを用い、複数のカメラが同じ方向で別の周波数帯の画像を撮影するような構成を用いることもできる。   The in-vehicle camera 100 shown in FIG. 2 includes a half mirror or the like in a single camera and can output a plurality of types of image signals including a visible light image and an infrared image by performing spectroscopy with the half mirror or the like. It is a thing. However, the image signal input to the passage detection apparatus of the present invention is not limited to one captured with a single camera, but may be one captured with a plurality of cameras. That is, a configuration in which a plurality of cameras are used and the plurality of cameras capture images of different frequency bands in the same direction can be used.

なお、以下の説明では、説明を簡単にするため、InSb半導体受光素子115及びCCD受光素子118並びにCCD受光素子121の視野が一致していることとする。つまり、InSb半導体受光素子115、CCD受光素子118及びCCD受光素子121の各撮像素子における同一座標の画素(すなわち横640画素×縦480画素において互いに対応する画素)は、同一の撮影対象を撮影(すなわち同一の撮影対象によって反射された光を光電変換)しているものとする。ただし、実際には、レンズ毎に視野が異なることや、InSb半導体受光素子とCCD受光素子とで画素間隔が異なる場合があることなどから、同一画像を撮像する各画素を対応させるには、座標変換や、画素間隔の違いを補正するための補間処理が必要となることがある。   In the following description, it is assumed that the fields of view of the InSb semiconductor light receiving element 115, the CCD light receiving element 118, and the CCD light receiving element 121 are the same for the sake of simplicity. That is, pixels having the same coordinates (that is, pixels corresponding to each other in the horizontal 640 pixels × vertical 480 pixels) in the imaging elements of the InSb semiconductor light receiving element 115, the CCD light receiving element 118, and the CCD light receiving element 121 photograph the same photographing object ( That is, it is assumed that light reflected by the same subject is photoelectrically converted. However, in actuality, since the field of view is different for each lens and the pixel interval may be different between the InSb semiconductor light-receiving element and the CCD light-receiving element, the coordinates for each pixel that captures the same image are coordinated. In some cases, conversion or interpolation processing for correcting a difference in pixel interval may be required.

記憶装置20は、例えばハードディスクによって実現され、通路検出プログラムPG、複数種類のガボールフィルタF1〜F30(すなわちガボールフィルタF1〜F30のパラメータを表すデータなど)、及び植生判定閾値THを記憶する。この記憶装置20は、画像処理装置30からの読み出し要求に応じて上記の通路検出プログラムPG、ガボールフィルタF1〜F30、及び植生判定閾値THを画像処理装置30に出力する。   The storage device 20 is realized by, for example, a hard disk, and stores a passage detection program PG, a plurality of types of Gabor filters F1 to F30 (that is, data representing parameters of the Gabor filters F1 to F30), and a vegetation determination threshold value TH. The storage device 20 outputs the passage detection program PG, the Gabor filters F1 to F30, and the vegetation determination threshold value TH to the image processing device 30 in response to a read request from the image processing device 30.

ここで、通路検出プログラムPGは、入力画像データから未舗装路の轍を通路領域として検出する処理を通路検出装置1で実現するためのプログラムである。この通路検出プログラムPGが画像処理装置30によって読み出されて実行されることにより、画像処理装置30において、中心ブロック抽出部31、植生検出部32、中心ブロック補正部33、及び通路領域検出部34の各機能が実現される。   Here, the passage detection program PG is a program for realizing, in the passage detection device 1, processing for detecting a pavement on an unpaved road as a passage area from input image data. The passage detection program PG is read and executed by the image processing device 30, whereby the central block extraction unit 31, the vegetation detection unit 32, the central block correction unit 33, and the passage region detection unit 34 in the image processing device 30. Each function is realized.

また、ガボールフィルタF1〜F30は、2次元ガウス関数と2次元平面上を一方向に伝播する正弦波関数とを乗じて得られる2次元ガボール関数を利用した空間周波数フィルタであり、2次元ウェーブレットフィルタの一形態である。互いに直交するX軸及びY軸からなる2次元直交座標系における2次元ガボール関数GB(x,y)は以下の(1)式で表される。尚、以下の(1)式において、uは波の角周波数、σはガウス関数の標準偏差(ガウス窓の幅)を示すパラメータである。また、2次元ガボール関数GB(x,y)は、波の方向を示すパラメータ(方向パラメータ)として角周波数uの偏角φを有している。 Gabor filters F1 to F30 are spatial frequency filters using a two-dimensional Gabor function obtained by multiplying a two-dimensional Gaussian function and a sine wave function propagating in one direction on a two-dimensional plane, and are two-dimensional wavelet filters. It is one form. A two-dimensional Gabor function GB (x, y) in a two-dimensional orthogonal coordinate system composed of an X axis and a Y axis orthogonal to each other is expressed by the following equation (1). In the following equation (1), u 0 is a parameter indicating the angular frequency of the wave, and σ is a standard deviation of the Gaussian function (gauss window width). The two-dimensional Gabor function GB (x, y) has a declination φ of an angular frequency u 0 as a parameter (direction parameter) indicating a wave direction.

以上の2次元ガボール関数GB(x,y)を利用したガボールフィルタを用いて、入力画像データをフィルタリングすることにより、入力画像の周波数特性やテクスチャ(模様)方向特性を抽出することができる。具体的には、入力画像において、方向パラメータ(偏角φ)と平行なテクスチャ方向を有すると共に、周波数パラメータ(角周波数u)に近い周波数特性を有する領域が感度良く抽出される。 By filtering the input image data using a Gabor filter using the above two-dimensional Gabor function GB (x, y), the frequency characteristics and texture (pattern) direction characteristics of the input image can be extracted. Specifically, in the input image, a region having a texture direction parallel to the direction parameter (deflection angle φ) and having frequency characteristics close to the frequency parameter (angular frequency u 0 ) is extracted with high sensitivity.

本実施形態では、方向パラメータ(角周波数uの偏角φ)及び周波数パラメータ(角周波数u)が異なる30種類のガボールフィルタF1〜F30が記憶装置20に記憶されている。ここで、上記の周波数パラメータは、抽出すべき轍の幅に応じて設定される。例えば、波の波長(周期)が視野上で1.5〜4度(25〜50cm)程度となるように角周波数uが設定される。かかる設定によって、轍が感度良く抽出されやすくなる。尚、本実施形態では、30種類のガボールフィルタF1〜F30が記憶装置20に記憶されている例について説明するが、その数や種類は入力画像の解像度や画像処理装置30の処理能力に応じて適宜変更することができる。 In the present embodiment, 30 types of Gabor filters F1 to F30 having different directional parameters (deflection angle φ of the angular frequency u 0 ) and frequency parameters (angular frequency u 0 ) are stored in the storage device 20. Here, the frequency parameter is set in accordance with the width of the eyelid to be extracted. For example, the angular frequency u 0 is set so that the wave wavelength (period) is about 1.5 to 4 degrees (25 to 50 cm) on the visual field. Such setting facilitates extraction of soot with high sensitivity. In the present embodiment, an example in which 30 types of Gabor filters F1 to F30 are stored in the storage device 20 will be described, but the number and type thereof depend on the resolution of the input image and the processing capability of the image processing device 30. It can be changed as appropriate.

画像処理装置30は、例えばCPU(中央処理装置)であり、記憶装置20から読み出した通路検出プログラムPGに従って、入力画像データに対して所定の画像処理を行うことにより、未舗装路の轍を通路領域として検出する。この画像処理装置30では、上記通路検出プログラムPGが実行されることによって中心ブロック抽出部31(抽出手段)、植生検出部32(植生検出手段)、中心ブロック補正部33(補正手段)、及び通路領域検出部34(検出手段)の各機能が実現される。   The image processing device 30 is, for example, a CPU (Central Processing Unit), and performs predetermined image processing on input image data in accordance with a passage detection program PG read from the storage device 20, thereby passing a coral on an unpaved road. Detect as a region. In the image processing apparatus 30, the passage detection program PG is executed to thereby execute a center block extraction unit 31 (extraction unit), a vegetation detection unit 32 (vegetation detection unit), a center block correction unit 33 (correction unit), and a passage. Each function of the area detection unit 34 (detection means) is realized.

中心ブロック抽出部31は、小領域形成部31a、小領域選別部31b、通路領域推定部31c、及び中心線推定部31dを備えており、A/Dコンバータ10から出力される可視光画像データを複数のブロックに区分し、通路領域としての轍のおおよその位置を示すブロック(中心ブロック)を1又は複数、抽出する。尚、この中心ブロックは、轍の画像が含まれる可能性のあるブロックということもできる。   The center block extracting unit 31 includes a small region forming unit 31a, a small region selecting unit 31b, a passage region estimating unit 31c, and a center line estimating unit 31d, and the visible light image data output from the A / D converter 10 is obtained. The block is divided into a plurality of blocks, and one or a plurality of blocks (center blocks) indicating the approximate position of the coral as a passage area are extracted. Note that this central block can also be said to be a block that may contain a wrinkle image.

小領域形成部31aは、入力画像に含まれる通路領域を推定するために必要な通路推定情報として、通路領域の一部である可能性の高さを示す通路候補パラメータが与えられた複数の小領域を入力画像中に形成する。具体的には、入力画像データに対して、後述するフィルタリング処理、テクスチャ(模様)方向特定処理、強エッジ領域抽出処理、投票処理、消失点特定処理、及び小領域分割処理を実行することによって、上記の小領域を入力画像中に形成する。   The small area forming unit 31a has a plurality of small candidate areas given path candidate parameters indicating the possibility of being part of the path area as path estimation information necessary for estimating the path area included in the input image. Regions are formed in the input image. Specifically, by performing filtering processing, texture (pattern) direction specifying processing, strong edge region extraction processing, voting processing, vanishing point specifying processing, and small region dividing processing described later on the input image data, The small area is formed in the input image.

ここで、フィルタリング処理とは、記憶装置20から読み出した複数のガボールフィルタF1〜F30を用いて入力画像における通路検出対象領域をフィルタリングすることにより、通路検出対象領域についての各方向(φ1〜φ30)の強度分布データを生成する処理である。テクスチャ方向特定処理とは、上記フィルタリング処理によって生成された強度分布データを基に、通路検出対象領域における各画素のテクスチャ方向を特定する処理である。強エッジ領域抽出処理とは、入力画像における通路検出対象領域のエッジ検出処理を行うことにより、通路検出対象領域に存在する強エッジ領域を抽出する処理である。   Here, the filtering process refers to each direction (φ1 to φ30) for the path detection target area by filtering the path detection target area in the input image using a plurality of Gabor filters F1 to F30 read from the storage device 20. It is the process which produces | generates intensity distribution data. The texture direction specifying process is a process of specifying the texture direction of each pixel in the path detection target area based on the intensity distribution data generated by the filtering process. The strong edge area extraction process is a process of extracting a strong edge area existing in the path detection target area by performing an edge detection process of the path detection target area in the input image.

投票処理とは、入力画像における通路検出対象領域を奥行き方向に沿って複数に分割して得られる分割領域毎に、分割領域における各画素のそれぞれを投票元画素として選択し、その投票元画素を起点としてそのテクスチャ方向に平行な直線上に存在する画素、又は投票元画素を起点としてそのテクスチャ方向に沿うように設定された投票対象領域に含まれる画素に対して投票を行う処理である。消失点特定処理とは、上記の分割領域毎に、上記投票処理による投票結果を基に投票回数が最も大きい画素を消失点として特定する処理である。   In the voting process, for each divided area obtained by dividing the path detection target area in the input image along the depth direction, each pixel in the divided area is selected as a voting source pixel, and the voting source pixel is selected. This is a process of voting on a pixel that exists on a straight line parallel to the texture direction as a starting point, or on a pixel included in a voting target area that is set along the texture direction starting from a voting source pixel. The vanishing point specifying process is a process of specifying, for each divided area, a pixel having the largest number of votes as a vanishing point based on the voting result of the voting process.

小領域分割処理とは、上記の分割領域毎に、消失点特定処理にて特定した消失点を頂点とする領域を複数の小領域に分割し、各小領域の各々に対して、その小領域に含まれる消失点の投票元画素の比率を基に決定した通路候補パラメータを与える処理である。尚、これらフィルタリング処理、テクスチャ方向特定処理、強エッジ領域抽出処理、投票処理、消失点特定処理、及び小領域分割処理の詳細については後述する。   The small area dividing process is to divide the area having the vanishing point specified in the vanishing point specifying process into a plurality of small areas for each divided area, and for each small area, Is a process of giving a path candidate parameter determined based on the ratio of the voting source pixels of vanishing points included in the. The details of the filtering process, the texture direction specifying process, the strong edge area extracting process, the voting process, the vanishing point specifying process, and the small area dividing process will be described later.

小領域選別部31bは、上記の小領域形成部31aによって形成された複数の小領域の各々に与えられた通路候補パラメータに基づいて、これらの小領域を通路候補領域とそれ以外の(ノイズ成分の可能性の高い)非通路候補領域とに選別する。具体的には、この小領域選別部31bは、複数の小領域の各々に与えられた通路候補パラメータに基づいて、通路領域の一部である可能性の高い小領域を通路候補領域とし、通路領域の一部である可能性の低い小領域を非通路候補領域とする一方で、通路候補領域によって一部又は全部を囲まれた非通路候補領域の通路候補パラメータの値を高くすることで非通路候補領域を通路候補領域に変更し、また、他の通路候補領域から孤立した位置に存在する通路候補領域の通路候補パラメータの値を低くすることで当該通路候補領域を非通路候補領域に変更する。尚、このような小領域選別部31bによる小領域の選別処理(ノイズフィルタリング処理)の詳細については後述する。   Based on the path candidate parameters given to each of the plurality of small areas formed by the small area forming section 31a, the small area selection unit 31b selects these small areas as path candidate areas and other (noise components). Are selected as non-passage candidate areas. Specifically, the small area selection unit 31b sets a small area that is likely to be a part of the path area as a path candidate area based on the path candidate parameter given to each of the plurality of small areas. A small area that is unlikely to be a part of the area is set as a non-passage candidate area, while a non-passage candidate area that is partially or wholly surrounded by the path candidate area is increased by increasing the value of the path candidate parameter. Change the path candidate area to a path candidate area, and change the path candidate area to a non-path candidate area by lowering the value of the path candidate parameter of the path candidate area existing at a position isolated from other path candidate areas. To do. The details of the small area sorting process (noise filtering process) by the small area sorting unit 31b will be described later.

通路領域推定部31cは、上記の小領域選別部31bによる小領域の選別結果に基づいて、隣接する通路候補領域をグループ化することで得られる領域群の内、最も通路らしい領域群を入力画像に含まれる通路領域として選択する。具体的には、通路領域推定部31cは、通路候補領域のグループ化により得られる領域群の各々について、以下の(2)式に示される評価関数f(F,H,C,A)の値を求め、その値が最も大きい領域群を入力画像に含まれる通路領域として選択する。   The passage area estimation unit 31c inputs, as an input image, a region group that seems to be the most passage among area groups obtained by grouping adjacent passage candidate areas based on the small area selection result by the small area selection unit 31b. Is selected as a passage area included in. Specifically, the passage area estimation unit 31c sets the value of the evaluation function f (F, H, C, A) represented by the following equation (2) for each of the area groups obtained by grouping the passage candidate areas. And a group of regions having the largest value is selected as a passage region included in the input image.

但し、上記(2)式中の第1変数Fは領域群に入力画像における奥行き方向の手前側の領域が含まれるか否かを示す変数であり、第2変数Hは領域群の奥行き方向の長さを示す変数であり、第3変数Cは領域群に含まれる通路候補パラメータの値が最も大きな通路候補領域の数を示す変数であり、第4変数Aは領域群の総面積を示す変数である。また、上記(2)式中の第1重み係数k〜第4重み係数kは、第1変数F〜第4変数Aにそれぞれ乗算される係数である。尚、通路領域推定部31cによる通路領域の推定処理の詳細については後述する。 However, the first variable F in the equation (2) is a variable indicating whether or not the region group includes a region on the near side in the depth direction in the input image, and the second variable H is the depth direction of the region group. The third variable C is a variable indicating the number of path candidate areas having the largest path candidate parameter value included in the area group, and the fourth variable A is a variable indicating the total area of the area group. It is. In addition, the first weight coefficient k 1 to the fourth weight coefficient k 4 in the equation (2) are coefficients that are multiplied by the first variable F to the fourth variable A, respectively. The details of the passage area estimation processing by the passage area estimation unit 31c will be described later.

中心線推定部31dは、上記の通路領域推定部31cによって選択された通路領域の中心線を推定する機能を有する。具体的には、中心線推定部31dは、入力画像を奥行き方向に沿って複数に分割して得られる分割領域の各々について重心を求め、最も手前側の分割領域の重心を起点として各分割領域毎に消失点に向かう直線を引くことで仮の中心線を作成すると共に仮の中心線と各重心との間の距離の2乗和を算出する。また、入力画像の横方向に沿って起点をずらしながら複数の仮の中心線を作成すると共に複数の仮の中心線の各々について各重心との間の距離の2乗和を算出し、これら2乗和の値が最も小さい仮の中心線を通路領域の中心線として選択する。そして、選択して中心線が通るブロックを中心ブロックとする。尚、中心線推定部31dによる中心線の推定処理の詳細については後述する。   The center line estimation unit 31d has a function of estimating the center line of the passage region selected by the passage region estimation unit 31c. Specifically, the centerline estimation unit 31d obtains a centroid for each of the divided areas obtained by dividing the input image into a plurality along the depth direction, and each divided area starts from the centroid of the nearest divided area. A temporary center line is created by drawing a straight line toward the vanishing point every time, and the sum of squares of the distances between the temporary center line and each center of gravity is calculated. Further, a plurality of temporary centerlines are created while shifting the starting point along the horizontal direction of the input image, and the sum of squares of the distances between the respective center of gravity for each of the plurality of temporary centerlines is calculated. The temporary center line with the smallest sum of multiplication values is selected as the center line of the passage area. Then, the block that is selected and passes through the center line is set as the center block. The details of the center line estimation processing by the center line estimation unit 31d will be described later.

植生検出部32は、反射率比算出部32a及び判定部32bを備えており、A/Dコンバータ10から出力される赤外線画像データに基づき、赤外線画像を構成する各画素が植生領域(あるいは単体の植物)によって反射された光を撮影したものであるのか否かを検出する。   The vegetation detection unit 32 includes a reflectance ratio calculation unit 32a and a determination unit 32b. Based on the infrared image data output from the A / D converter 10, each pixel constituting the infrared image is a vegetation region (or a single unit). It is detected whether or not the light reflected by the plant is taken.

反射率比算出部32aは、InSb半導体受光素子115及びCCD受光素子118の出力をA/Dコンバータ10を用いて変換することで得た各画素の画素値と、撮影時の露光時間、ゲインなどのデータとに基づいて、水の吸収波長帯域における反射率と、近赤外帯域における反射率との比(反射率比)を算出する。   The reflectance ratio calculation unit 32a, the pixel value of each pixel obtained by converting the outputs of the InSb semiconductor light receiving element 115 and the CCD light receiving element 118 using the A / D converter 10, the exposure time at the time of shooting, the gain, and the like Based on this data, the ratio (reflectance ratio) between the reflectance in the water absorption wavelength band and the reflectance in the near-infrared band is calculated.

判定部32bは、反射率比算出部32aによって算出された反射率比と記憶部20に記憶されている植生判定閾値THとを比較し、観測対象物が植物か否かを画素毎に判定する。短波赤外(SWIR)と近赤外(NIR)とでの反射率比については、図3及び図4に示すようにそれぞれの材質によって植物の葉が持つ値とそれ以外が持つ値について明確な差がある。そのため、判定部32bは、この性質を利用して植生であるか否かの判定を行う。   The determination unit 32b compares the reflectance ratio calculated by the reflectance ratio calculation unit 32a with the vegetation determination threshold value TH stored in the storage unit 20, and determines whether the observation target is a plant for each pixel. . About the reflectance ratio in short wave infrared (SWIR) and near infrared (NIR), as shown in FIG.3 and FIG.4, it is clear about the value which a plant leaf has by each material, and the value which others have There is a difference. Therefore, the determination part 32b determines whether it is vegetation using this property.

図5は、植生検出部32における処理の流れを示す図である。図5に示すように、植生検出部32は、(1)SWIRの波長帯域に関する画像データに基づいて算出される反射率と、NIRの波長帯域に関する画像データに基づいて算出される反射率との比(反射率比)を算出し(ステップS41)、(2)その反射率比と所定の閾値とを比較することによって、観測対象物が植物か否かを判別する(ステップS42)。   FIG. 5 is a diagram showing a flow of processing in the vegetation detection unit 32. As shown in FIG. 5, the vegetation detection unit 32 includes (1) a reflectance calculated based on image data related to the SWIR wavelength band and a reflectance calculated based on image data related to the NIR wavelength band. The ratio (reflectance ratio) is calculated (step S41), and (2) it is determined whether or not the observation object is a plant by comparing the reflectance ratio with a predetermined threshold (step S42).

なお、植生判定閾値THは、例えば、晴れの場合には2.0〜3.0の間の値を用い、雨天の場合には2.5〜4.0の間の値を用いるよう状況に切り分けて設定するか、共通で2.5〜3.0の間の値を設定することができる。   Note that the vegetation determination threshold value TH is, for example, a value between 2.0 and 3.0 when it is fine, and a value between 2.5 and 4.0 when it is raining. A value between 2.5 and 3.0 can be set in common.

中心ブロック補正部33は、植生割合算出部33a及び中心ブロック変更部33bを備えており、植生検出部32の出力に基づいて、中心ブロック抽出部31で抽出された中心ブロックの位置を補正する。   The center block correcting unit 33 includes a vegetation ratio calculating unit 33a and a center block changing unit 33b, and corrects the position of the center block extracted by the center block extracting unit 31 based on the output of the vegetation detecting unit 32.

植生割合算出部33aは、中心ブロックの周囲のブロック(例えば、横一列のブロック)それぞれにおける植物の割合を計算する。   The vegetation ratio calculation unit 33a calculates the ratio of plants in each of the blocks around the center block (for example, blocks in a horizontal row).

中心ブロック変更部33bは、植生割合算出部33aで算出された植物の割合の計算結果に基づいて、最も植物の割合が少ないブロックを「補正済み中心ブロック」とする。   Based on the calculation result of the plant ratio calculated by the vegetation ratio calculating unit 33a, the center block changing unit 33b sets the block having the smallest plant ratio as the “corrected center block”.

ここで、図6〜図8を参照して中心ブロック補正部33による処理内容について具体例を示して説明する。図6は、中心ブロック抽出部31が処理対象とした画像50の一例と、中心ブロック抽出部31によって画像50から抽出された中心線51と中心ブロック52の一例を示す図である。領域53及び54は、中心ブロック52を中心として植物の割合を計算する対象となる周囲の(左右の)領域である。この例では、図7に示すように、中心ブロック52の左右5ブロックずつ(ブロック531〜535及びブロック541〜545)が計算対象となる。   Here, with reference to FIG. 6 to FIG. 8, the processing content by the central block correction unit 33 will be described with a specific example. FIG. 6 is a diagram illustrating an example of the image 50 that is processed by the central block extraction unit 31 and an example of the center line 51 and the central block 52 that are extracted from the image 50 by the central block extraction unit 31. Regions 53 and 54 are surrounding (left and right) regions that are targets for calculating the proportion of plants with the central block 52 as the center. In this example, as shown in FIG. 7, the left and right 5 blocks (blocks 531 to 535 and blocks 541 to 545) of the central block 52 are to be calculated.

植物の割合は、植生検出部32による判定の結果に基づいて、植生割合算出部33aによって、植物と判定された画素の個数をブロック毎に積算することで算出される。例えば図7の中心ブロック52については、中心ブロック52、ブロック531〜535及びブロック541〜545について、各ブロックを構成する複数の画素(各ブロックがn画素×n画素とするとn×n個分)のうち植物と判定された画素の個数がブロック毎に算出される。そして、中心ブロック変更部33bによって、中心ブロック52、ブロック531〜535及びブロック541〜545のなかで最も植物と判定された画素の個数の少なかったブロックが、新たな中心ブロック52として選択される(図8参照)。中心ブロック補正部33では、中心ブロック抽出部31によって抽出された各中心ブロックについてそれぞれ補正処理が行われる。   Based on the result of determination by the vegetation detection unit 32, the ratio of plants is calculated by adding the number of pixels determined to be plants by the vegetation ratio calculation unit 33a for each block. For example, for the central block 52 in FIG. 7, a plurality of pixels constituting each of the central block 52, blocks 531 to 535 and blocks 541 to 545 (n × n if each block is n pixels × n pixels) Of these, the number of pixels determined to be a plant is calculated for each block. Then, the central block changing unit 33b selects a block having the smallest number of pixels determined to be a plant among the central block 52, the blocks 531 to 535, and the blocks 541 to 545 as a new central block 52 ( (See FIG. 8). In the center block correction unit 33, correction processing is performed on each center block extracted by the center block extraction unit 31.

尚、図9及び図10は、図6及び図8に示した画像対して通路領域検出部34によって通路領域55を検出した場合の結果の一例を示す図である。中心ブロックの補正処理を行っていない場合(図9の場合)には草地部分が中心ブロックとなっていたため、そのブロックと同様の特徴量をもつ植生領域に通路領域55が抽出されてしまっている。他方、中心ブロック52の補正処理を行った場合(図10の場合)には、中心ブロック52を草地部分から植物の無い部分へと移動させているため、通路領域55が植生領域以外の領域(この例では轍の領域)に抽出できている。   9 and 10 are diagrams illustrating an example of a result when the passage area 55 is detected by the passage area detection unit 34 for the images illustrated in FIGS. 6 and 8. When the correction process of the central block is not performed (in the case of FIG. 9), the grassland portion is the central block, and thus the passage area 55 is extracted in the vegetation area having the same feature amount as that block. . On the other hand, when the correction process of the center block 52 is performed (in the case of FIG. 10), the center block 52 is moved from the grassland part to the part without the plant, so that the passage area 55 is an area other than the vegetation area ( In this example, it can be extracted in the cocoon area.

通路領域検出部34は、第1算出部34a(第1算出手段)、第2算出部34b(第2算出手段)、重み決定部34c(重み決定手段)、及び抽出部34d(ブロック抽出手段)を備えており、中心ブロックの特徴量と同様の特徴量を有する領域(ブロック)を入力画像から抽出することによって通路領域を検出する。具体的には、以下に示すような特徴量の重み付けを行うことによって、中心ブロックの特徴量と同様の特徴量を有するブロックを抽出する。   The passage area detector 34 includes a first calculator 34a (first calculator), a second calculator 34b (second calculator), a weight determiner 34c (weight determiner), and an extractor 34d (block extractor). The passage area is detected by extracting an area (block) having the same feature quantity as the feature quantity of the central block from the input image. Specifically, a block having the same feature quantity as the feature quantity of the central block is extracted by performing weighting of the feature quantity as described below.

すなわち、通路領域検出部34によって用いられる特徴量としては、例えば次のような特性を用いることができる。
(a)輝度の平均値:1種類
(b)輝度の標準偏差:1種類
(c)ガボールフィルタによって得られる特徴量:30種類
That is, as the feature amount used by the passage area detection unit 34, for example, the following characteristics can be used.
(A) Average value of luminance: 1 type (b) Standard deviation of luminance: 1 type (c) Feature amount obtained by Gabor filter: 30 types

第1算出部34aは、中心ブロック補正部33で補正された中心ブロックと、この中心ブロックの左右方向に隣接するブロックとを基準ブロックとし、基準ブロックについての特徴量の平均値及び標準偏差を特徴量の種類毎に求める。第2算出部34bは、全てのブロックについての特徴量の平均値を特徴量の種類毎に求める。尚、第2算出部34bが平均値を求める際には、必ずしも全てのブロックを用いる必要はない。例えば、轍の抽出に全く関与しない画像(例えば、地平線の上方の画像)が含まれるブロックを除外し、残りのブロックについての特徴量の平均値を求めるのが望ましい。   The first calculation unit 34a uses the center block corrected by the center block correction unit 33 and a block adjacent to the center block in the left-right direction as a reference block, and uses the average value and standard deviation of the feature values of the reference block as features. Calculate for each type of quantity. The second calculation unit 34b obtains an average value of feature values for all blocks for each type of feature value. When the second calculation unit 34b calculates the average value, it is not always necessary to use all the blocks. For example, it is desirable to exclude blocks containing an image that is not involved in the extraction of wrinkles at all (for example, an image above the horizon) and obtain an average value of feature values for the remaining blocks.

重み決定部34cは、第1算出部34aで求められた基準ブロックについての平均値と第2算出部34bで求められた複数のブロックの全てについての平均値との差が大きな特徴量については重みが重くなるように特徴量毎の重みを決定する。また、第1算出部34aで求められた基準ブロックについての標準偏差が小さな特徴量については重みが重くなるように特徴量毎の重みを決定する。   The weight determination unit 34c applies a weight to a feature amount having a large difference between the average value for the reference block obtained by the first calculation unit 34a and the average value for all of the plurality of blocks obtained by the second calculation unit 34b. The weight for each feature quantity is determined so that becomes heavy. Further, the weight for each feature amount is determined so that the feature amount having a small standard deviation for the reference block obtained by the first calculation unit 34a becomes heavy.

ここで、第1算出部34aで求められる基準ブロックについてのi番目(iは1≦i≦37を満たす整数)の特徴量の平均値及び標準偏差をそれぞれμ^,σ^とし、第2算出部34bで求められる複数のブロックの全てについての特徴量の平均値をμとし、a,b,cを任意の定数とする。尚、表記の都合上、上記の記号「μ^」は、文字「μ」の上部にハット記号「^」が付された記号であることを意味している。同様に、上記の記号「σ^」は、文字「σ」の上部にハット記号「^」が付された記号であることを意味している。重み決定部34cは、以下の(3)式を用いてi番目の特徴量毎の重みw′を決定する。 Here, the average value and standard deviation of the i-th feature amount (i is an integer satisfying 1 ≦ i ≦ 37) for the reference block obtained by the first calculation unit 34a are μ ^ i and σ ^ i , respectively. 2 The average value of the feature values for all the plurality of blocks obtained by the calculation unit 34b is μ i, and a, b, and c are arbitrary constants. For convenience of description, the symbol “μ ^” means that a hat symbol “^” is added above the character “μ”. Similarly, the symbol “σ ^” means that the hat symbol “^” is added to the upper part of the character “σ”. The weight determination unit 34c determines the weight w ′ i for each i-th feature amount using the following equation (3).

上記(3)式を参照すると、右辺第1項は基準ブロックにおける特徴量の全体に対する偏りを表しており、右辺第2項はその特徴量の基準ブロック内での広がりを表している。右辺第1項が大きく右辺第2項が大きい場合には、その特徴量は基準ブロックとそれ以外のブロックとの間では値が大きく異なる一方で、基準ブロック間では近い値になる。このため、このような特徴量は、未舗装路の轍の特徴を良く表していると考えられるため重みを大きくしている。   Referring to the above expression (3), the first term on the right side represents a bias with respect to the entire feature quantity in the reference block, and the second term on the right side represents the spread of the feature quantity in the reference block. When the first term on the right side is large and the second term on the right side is large, the value of the feature amount differs greatly between the reference block and the other blocks, but becomes a close value between the reference blocks. For this reason, since such a feature amount is considered to well represent a feature of a pavement on an unpaved road, the weight is increased.

また、上記(3)式を参照すると、重みw′は負の値をとる場合がある。重み決定部34cは、得られた重みw′が負の値である場合には、その値を零に決定する。また、どのような画像であっても重みほぼ零に近い特徴量については、精度を保ったまま処理に要する時間を短縮するために削除する処理を行う。更に、重み決定部34cは、以下の(4)式を用いて正規化した重みwを求める。 Further, referring to the above equation (3), the weight w ′ i may take a negative value. When the obtained weight w ′ i is a negative value, the weight determination unit 34c determines the value to be zero. In addition, for any image, a feature amount that is nearly zero in weight is subjected to a deletion process in order to reduce the time required for the process while maintaining accuracy. Furthermore, the weight determination unit 34c obtains a weight w i normalized using the following equation (4).

また、各ブロックの特徴量の分布は、図11に示す通り、平均値μに関して対称ではなく、偏った分布になることが多い。図11は、特徴量の分布の一例を示す図である。具体的には、特徴量の分布が、図11中の符号Dを付した曲線の通り、値が平均値μよりも小さな領域では分布が広くなり、値が平均値μよりも大きな領域ではμ+2σ程度の範囲に集中する分布になる。   In addition, as shown in FIG. 11, the distribution of the feature amount of each block is often not a symmetric but a biased distribution with respect to the average value μ. FIG. 11 is a diagram illustrating an example of the distribution of feature amounts. Specifically, the distribution of the feature amount is wide in a region where the value is smaller than the average value μ, and μ + 2σ in a region where the value is larger than the average value μ, as shown by the curve with the symbol D in FIG. The distribution is concentrated in the range of the degree.

このため、重み決定部34cは、以下の(5)式を用いて各特徴量を正規化するための正規化係数sも求める。 For this reason, the weight determination unit 34c also obtains a normalization coefficient s i for normalizing each feature amount using the following equation (5).

尚、分布の偏りのない特徴量を用いる場合や、基準ブロックのサンプル数が多く特徴量の分布が正確に分かる場合には、必ずしも上記の正規化係数sを求める必要はなく、別の正規化方法を用いることができる。 Note that when the feature amount without distribution bias is used, or when the distribution of the feature amount is accurately known when the number of samples of the reference block is large, the normalization coefficient s i does not necessarily have to be obtained. Can be used.

抽出部34dは、重み決定部34cで重み付けされた特徴量を用いて画像に含まれる未舗装路の轍を抽出する。具体的には、処理対象のブロックにおけるi番目の特徴量の値をf、中心ブロックにおけるi番目の特徴量の値をfciとすると、抽出部34dは、以下の(6)式に示す評価関数Eの値が所定値Tよりも大きい場合に、その処理対象のブロックに轍の画像が含まれると評価してそのブロックを抽出する。尚、上記の所定値Tは、前述した(3)式中の変数a,b,cの値や、轍の画像の性質に応じて適宜設定される。 The extraction unit 34d extracts a pavement of an unpaved road included in the image using the feature amount weighted by the weight determination unit 34c. Specifically, assuming that the value of the i-th feature amount in the block to be processed is f i and the value of the i-th feature amount in the central block is f ci , the extraction unit 34d represents the following equation (6): When the value of the evaluation function E is larger than the predetermined value T, it is evaluated that a wrinkle image is included in the processing target block, and the block is extracted. Note that the predetermined value T is appropriately set according to the values of the variables a, b, and c in the above-described equation (3) and the properties of the eyelid image.

RAM40は、画像処理装置30が各種画像処理を実行する上で必要なデータや、上記の入力画像データを必要に応じて一時的に記憶するために使用される書換え可能な揮発性メモリである。   The RAM 40 is a rewritable volatile memory used to temporarily store data necessary for the image processing apparatus 30 to execute various image processes and the input image data as necessary.

次に、上記構成における通路検出装置1の動作について説明する。以下では、通路検出装置1が、車載カメラ100から得られる画像から轍を抽出して通路領域を検出する検出動作を行う場合について説明する。尚、検出動作時には、車載カメラ100及び通路検出装置1を搭載する不図示の車両が未舗装路を走行しており、車載カメラ100からは轍が写り込んだ入力画像が得られるものとする。   Next, the operation of the passage detection apparatus 1 having the above configuration will be described. Below, the case where the channel | path detection apparatus 1 performs the detection operation | movement which extracts a bag from the image obtained from the vehicle-mounted camera 100, and detects a channel | path area | region is demonstrated. In the detection operation, it is assumed that a vehicle (not shown) on which the in-vehicle camera 100 and the path detection device 1 are mounted is traveling on an unpaved road, and an input image in which soot is reflected is obtained from the in-vehicle camera 100.

図12は、検出動作の全体的な流れを示すフローチャートである。尚、図12に示すフローチャートは、車両の走行中に所定の時間間隔で繰り返し実行される。検出動作が開始されると、車載カメラ100から入力画像がA/Dコンバータ10に入力されてディジタルデータに変換され、入力画像データとして画像処理装置30に出力される(ステップS11:画像入力ステップ)。そして、まず通路領域としての轍のおおよその位置を示す中心ブロックを抽出する処理が行われる(ステップS12:抽出ステップ)。図13は中心ブロックを抽出する処理の詳細を示すフローチャートであり、図14は車載カメラ100から得られる入力画像の一例を示す図である。ここでは、図14(a)に示す通り、轍が写り込んだ入力画像が得られたとする。   FIG. 12 is a flowchart showing the overall flow of the detection operation. Note that the flowchart shown in FIG. 12 is repeatedly executed at predetermined time intervals while the vehicle is running. When the detection operation is started, the input image is input from the in-vehicle camera 100 to the A / D converter 10 and converted into digital data, and is output to the image processing apparatus 30 as input image data (step S11: image input step). . And the process which extracts the center block which shows the approximate position of the eyelid as a channel | path area | region is performed first (step S12: extraction step). FIG. 13 is a flowchart showing details of the process of extracting the center block, and FIG. 14 is a diagram showing an example of an input image obtained from the in-vehicle camera 100. Here, as shown in FIG. 14A, it is assumed that an input image in which wrinkles are reflected is obtained.

また、以下では、図14(b)に示す通り、入力画像の横方向をX軸方向、縦方向をY軸方向とし、入力画像の座標(X,Y)=(0,0)〜(639,479)の各画素に対応する輝度データをB(0,0)〜B(639,479)と表記する。つまり、入力画像データは、これら輝度データB(0,0)〜B(639,479)の集合である。このような入力画像データは、画像処理装置30によってRAM40に一旦記憶される。   In the following, as shown in FIG. 14B, the horizontal direction of the input image is the X-axis direction, the vertical direction is the Y-axis direction, and the coordinates (X, Y) = (0, 0) to (639) of the input image. , 479) are represented as B (0, 0) to B (639, 479). That is, the input image data is a set of these luminance data B (0, 0) to B (639, 479). Such input image data is temporarily stored in the RAM 40 by the image processing apparatus 30.

図13に示す処理が開始されると、まず画像処理装置30の中心ブロック抽出部31に設けられた小領域形成部31aは、RAM40から入力画像における通路検出対象領域に相当する入力画像データを読み出すとともに、記憶装置20からガボールフィルタF1〜F30を読み出し、各ガボールフィルタF1〜F30を用いて入力画像データをフィルタリングすることにより、各方向の強度分布データを生成する(ステップS21:フィルタリング処理)。   When the processing shown in FIG. 13 is started, first, the small area forming unit 31a provided in the central block extracting unit 31 of the image processing apparatus 30 reads input image data corresponding to the path detection target area in the input image from the RAM 40. At the same time, the Gabor filters F1 to F30 are read from the storage device 20, and the input image data is filtered using the Gabor filters F1 to F30, thereby generating intensity distribution data in each direction (step S21: filtering process).

本実施形態では、入力画像の全領域が上記の通路検出対象領域に設定されている場合を例示して説明する。つまり、RAM40から入力画像の全領域に相当する入力画像データが読み出される。尚、入力画像から水平線を抽出可能である場合には、その水平線より下の領域(つまり地面の領域)を通路検出対象領域として設定しても良い。このように、確実に通路が存在すると推定される領域のみを通路検出対象領域とすることにより、以下で説明する画像処理の負荷を軽減でき、処理時間を短縮することができる。   In the present embodiment, a case where the entire area of the input image is set as the path detection target area will be described as an example. That is, input image data corresponding to the entire area of the input image is read from the RAM 40. When a horizontal line can be extracted from the input image, an area below the horizontal line (that is, a ground area) may be set as a path detection target area. In this way, by setting only a region where a passage is surely present as a passage detection target region, it is possible to reduce the load of image processing described below, and to shorten the processing time.

図15は、小領域形成部31aのフィルタリング処理に関する説明図である。図15(a)に示す通り、小領域形成部31aは、ガボールフィルタF1〜F30を用いたフィルタリング処理として、入力画像において、ある画素を中心画素とする畳み込み領域に含まれる各画素の輝度データと、ガボールフィルタ、つまり2次元ガボール関数GB(x,y)との畳み込み演算を行い、その演算結果をガボールフィルタの方向パラメータφに対応する中心画素の強度として取得する。   FIG. 15 is an explanatory diagram regarding the filtering process of the small region forming unit 31a. As illustrated in FIG. 15A, the small region forming unit 31 a performs the filtering process using the Gabor filters F <b> 1 to F <b> 30 as the luminance data of each pixel included in the convolution region having a certain pixel as the central pixel in the input image. Then, a convolution calculation with a Gabor filter, that is, a two-dimensional Gabor function GB (x, y) is performed, and the calculation result is acquired as the intensity of the central pixel corresponding to the direction parameter φ of the Gabor filter.

つまり、小領域形成部31aは、まず、ある画素を中心画素とする畳み込み領域に含まれる各画素の輝度データとガボールフィルタF1との畳み込み演算を行い、その演算結果をガボールフィルタF1の方向パラメータφ1に対応する中心画素の強度として取得する。ここで、各ガボールフィルタF1〜F30を、実数部のフィルタと虚数部のフィルタとに分けて作成しておくことにより、実数部のフィルタを用いて得られた強度と、虚数部のフィルタを用いて得られた強度とをそれぞれ2乗して加算し、その加算値の平方根を求めることで最終的な強度を取得することができる。   That is, first, the small region forming unit 31a performs a convolution calculation between the luminance data of each pixel included in the convolution region having a certain pixel as a central pixel and the Gabor filter F1, and the calculation result is used as the direction parameter φ1 of the Gabor filter F1. Is obtained as the intensity of the center pixel corresponding to. Here, by creating each Gabor filter F1 to F30 separately for the real part filter and the imaginary part filter, the intensity obtained using the real part filter and the imaginary part filter are used. The final intensity can be obtained by squaring and adding the obtained intensities and obtaining the square root of the added value.

続いて、小領域形成部31aは、ガボールフィルタF2に切り替えて同様に畳み込み演算を行い、その演算結果をガボールフィルタF2の方向パラメータφ2に対応する中心画素の強度として取得する。以下、同様に、小領域形成部31aは、ガボールフィルタを順次切り替えながら畳み込み演算を行うことにより、その演算結果を各ガボールフィルタF1〜F30の方向パラメータφ1〜φnに対応する中心画素の強度として取得する。   Subsequently, the small region forming unit 31a switches to the Gabor filter F2 and similarly performs a convolution operation, and acquires the calculation result as the intensity of the central pixel corresponding to the direction parameter φ2 of the Gabor filter F2. Hereinafter, similarly, the small region forming unit 31a performs the convolution calculation while sequentially switching the Gabor filters, and acquires the calculation result as the intensity of the central pixel corresponding to the direction parameters φ1 to φn of the Gabor filters F1 to F30. To do.

小領域形成部31aは、上記のようなフィルタリング処理を、入力画像の座標(0,0)〜(639,479)の各画素のそれぞれについて行うことにより、図15(b)に示すような各方向の強度分布データを生成してRAM40に記憶する。尚、図15(b)では、座標(0,0)〜(639,479)の各画素のそれぞれを中心画素として得られた強度データをI(0,0)〜I(639,479)として表記している。   The small region forming unit 31a performs the filtering process as described above for each pixel of the coordinates (0, 0) to (639, 479) of the input image, whereby each small region forming unit 31a as illustrated in FIG. Direction intensity distribution data is generated and stored in the RAM 40. In FIG. 15B, intensity data obtained with each pixel at coordinates (0, 0) to (639, 479) as the central pixel is represented by I (0, 0) to I (639, 479). It is written.

尚、図15(a)から分かる通り、入力画像の端部に近い画素を中心画素とする場合、畳み込み領域が入力画像からはみ出てしまうため、この場合には予め設定した輝度データ(例えば白データ等)を入力画像からはみ出ている畳み込み領域の輝度データとして使用すれば良い。また、畳み込み領域の大きさは、検出対象の通路の大きさに応じて適宜変更すれば良いが、例えば幅25cm〜50cmの車輪跡に相当する轍を検出対象とする場合には、その幅に相当する画素数(32画素)以上の大きさ、例えば50×50画素の大きさとすることが望ましい。   As can be seen from FIG. 15A, when the pixel close to the end of the input image is used as the central pixel, the convolution region protrudes from the input image. In this case, preset brightness data (for example, white data) Etc.) may be used as the luminance data of the convolutional region protruding from the input image. In addition, the size of the convolution region may be changed as appropriate according to the size of the passage to be detected. For example, when a heel corresponding to a wheel mark having a width of 25 cm to 50 cm is set as a detection target, the width is set to the width. It is desirable that the size is equal to or larger than the corresponding number of pixels (32 pixels), for example, 50 × 50 pixels.

以上説明したステップS21の処理が終了すると、小領域形成部31aは、RAM40から各方向の強度分布データを読み出し、それら強度分布データを基に入力画像における各画素のテクスチャ方向を特定する(ステップS22:テクスチャ方向特定処理)。具体的には、例えば座標(0,0)の画素に着目した場合、各方向の強度分布データの中から強度データI(0,0)が最も大きいものを探索し、その最大の強度データI(0、0)を含む強度分布データに対応する方向を、座標(0,0)の画素のテクスチャ方向として特定する。例えば、方向φ3に対応する強度分布データに最大の強度データI(0,0)が含まれている場合、方向φ3が座標(0,0)の画素のテクスチャ方向となる。   When the processing in step S21 described above is completed, the small region forming unit 31a reads the intensity distribution data in each direction from the RAM 40, and specifies the texture direction of each pixel in the input image based on the intensity distribution data (step S22). : Texture direction specifying process). Specifically, for example, when focusing on a pixel at coordinates (0, 0), a search is made for the largest intensity data I (0, 0) from the intensity distribution data in each direction, and the maximum intensity data I is obtained. The direction corresponding to the intensity distribution data including (0, 0) is specified as the texture direction of the pixel at coordinates (0, 0). For example, when the intensity distribution data corresponding to the direction φ3 includes the maximum intensity data I (0,0), the direction φ3 is the texture direction of the pixel at the coordinates (0,0).

小領域形成部31aは、上記のようなテクスチャ方向の特定処理を、座標(0,0)〜(639,479)の各画素について行うことにより、各画素のテクスチャ方向を特定し、その特定結果をRAM40に記憶する。図16は、小領域形成部31aのテクスチャ方向特定処理に関する説明図であって、(a)は各画素のテクスチャ方向の特定結果であり、(b)は入力画像とテクスチャ方向の特定結果とを重ねて表示したものである。尚、この図16では、説明の便宜上、テクスチャ方向の特定結果を、テクスチャ方向を指し示すベクトル線で表しているが、実際にはテクスチャ方向の特定結果は、その方向を表す値(例えばテクスチャ方向がφ1であればφ1の値)によって構成されている。   The small region forming unit 31a performs the texture direction specifying process as described above for each pixel at coordinates (0, 0) to (639, 479), thereby specifying the texture direction of each pixel, and the specifying result. Is stored in the RAM 40. FIG. 16 is an explanatory diagram regarding the texture direction specifying process of the small region forming unit 31a, where (a) shows the result of specifying the texture direction of each pixel, and (b) shows the input image and the result of specifying the texture direction. It is displayed in a superimposed manner. In FIG. 16, for the sake of convenience of description, the texture direction specification result is represented by a vector line indicating the texture direction. However, in actuality, the texture direction specification result is a value indicating the direction (for example, the texture direction is If φ1, the value of φ1).

不整地上に存在する轍等の通路は、車両が複数回その場所を走行することにより、地面や草むらが踏み起こされたり、踏み固められたりした結果残るものであるため、図14(a)に示す通り、その痕跡は入力画像上において不連続且つ不明瞭な帯状やスジ状の疎らな領域として観察される。そこで、上述した入力画像の波の成分を抽出するステップS21及びステップS22の処理を実施することより、通路を形成する模様の間隔は不定でなだらかではあるが、通路の進行方向に平行な波の成分として捕らえることができる。   A passage such as a kite that exists on uneven ground is left as a result of a vehicle traveling around the ground several times, and the ground and the grass are stomped or solidified. As shown, the trace is observed as a discontinuous and unclear band-like or streak-like sparse region on the input image. Therefore, by performing the processing of step S21 and step S22 for extracting the wave component of the input image described above, the interval between the patterns forming the passage is indefinite and gentle, but the wave parallel to the traveling direction of the passage is gentle. Can be captured as an ingredient.

以上説明したステップS22の処理が終了すると、小領域形成部31aは、入力画像データを基に所定のエッジ検出処理を行うことにより、入力画像に存在する強エッジ領域を抽出し、その抽出結果をRAM40に記憶する(ステップS23:強エッジ領域抽出処理)。ここで、強エッジ領域の抽出手法としては公知の技術を採用することができる。例えば、X軸方向のソベルフィルタとY軸方向のソベルフィルタを適用して、それらの強度の2乗和が一定の閾値を超えた画素を探索し、その閾値を超えた画素から一定距離以内の領域を強エッジ領域として抽出する。   When the process of step S22 described above is completed, the small area forming unit 31a performs a predetermined edge detection process based on the input image data, thereby extracting a strong edge area existing in the input image, and obtaining the extraction result. It memorize | stores in RAM40 (step S23: strong edge area | region extraction process). Here, a well-known technique can be adopted as a technique for extracting a strong edge region. For example, by applying a Sobel filter in the X-axis direction and a Sobel filter in the Y-axis direction, a pixel whose sum of squares of the intensity exceeds a certain threshold is searched, and a pixel within a certain distance from the pixel exceeding the threshold is searched. Extract the region as a strong edge region.

上記ステップS22の処理が終了すると、小領域形成部31aは、入力画像における各画素のそれぞれを投票元画素として順次選択し、当該投票元画素を起点としそのテクスチャ方向に平行な直線上に存在する画素に対して投票を行う(ステップS24:投票処理)。図17〜図19は、小領域形成部31aの投票処理に関する説明図である。小領域形成部31aは、まず、図17に示す通り、RAM40のメモリ空間上に、投票回数を集計するための投票集計領域を入力画像と同サイズ(つまり、640×480画素数分の投票回数を集計可能なサイズ)で確保する。   When the process of step S22 is completed, the small region forming unit 31a sequentially selects each pixel in the input image as a voting source pixel, and exists on a straight line that starts from the voting source pixel and is parallel to the texture direction. Voting is performed on the pixels (step S24: voting process). 17-19 is explanatory drawing regarding the voting process of the small area formation part 31a. First, as shown in FIG. 17, the small area forming unit 31 a sets the vote count area for counting the number of votes in the memory space of the RAM 40 to the same size as the input image (that is, the number of votes corresponding to the number of 640 × 480 pixels). To ensure the total size).

そして、小領域形成部31aは、図18(a)に示す通り、ある画素を投票元画素として選択した場合、各画素のテクスチャ方向の特定結果から投票元画素のテクスチャ方向を把握し、投票元画素を起点としそのテクスチャ方向に平行な直線上に存在する画素(投票対象画素)に対して投票を行い、その投票結果を図18(b)に示す通りRAM40上の投票集計領域に反映する。つまり、図18(b)から分かるように、RAM40上の投票集計領域において投票対象画素に対応する記憶領域に投票値「1」が加算される。   Then, as illustrated in FIG. 18A, when the small region forming unit 31 a selects a certain pixel as the voting source pixel, the small region forming unit 31 a grasps the texture direction of the voting source pixel from the result of specifying the texture direction of each pixel, and Voting is performed on pixels (voting target pixels) that exist on a straight line parallel to the texture direction from the pixel as a starting point, and the voting result is reflected in the vote counting area on the RAM 40 as shown in FIG. That is, as can be seen from FIG. 18B, the vote value “1” is added to the storage area corresponding to the vote target pixel in the vote count area on the RAM 40.

小領域形成部31aは、上記のような投票処理を各画素について行い、その投票結果を順次RAM40上の投票集計領域に反映する。ここで、小領域形成部31aは、上記のような投票処理を行う際、強エッジ領域抽出処理にて抽出された強エッジ領域の周辺(例えば、2画素以内)に含まれる画素を投票元画素から除外する。この理由については後述する。   The small area forming unit 31a performs the voting process as described above for each pixel, and sequentially reflects the voting result in the vote counting area on the RAM 40. Here, when performing the voting process as described above, the small area forming unit 31a determines pixels included in the periphery (for example, within two pixels) of the strong edge area extracted by the strong edge area extraction process as voting source pixels. Exclude from The reason for this will be described later.

尚、上述の投票処理では、投票元画素を起点としそのテクスチャ方向に平行な直線上に存在する投票対象画素に対して投票を行う場合を説明したが、これに限らず、投票元画素を起点としてそのテクスチャ方向に沿うように設定された投票対象領域に含まれる画素(投票対象画素)に対して投票を行うようにしても良い。この投票対象領域は、例えば図19(a)に示すように、テクスチャ方向に平行な帯状(長方形状)のものでも良いし、また、図19(b)に示すように、円弧状或いは三角形状のものでも良い。   In the voting process described above, a case has been described in which voting is performed on a voting target pixel that exists on a straight line parallel to the texture direction from the voting source pixel. However, the present invention is not limited to this. Alternatively, voting may be performed on pixels (voting target pixels) included in the voting target area set along the texture direction. For example, as shown in FIG. 19 (a), the voting target area may be a belt-like (rectangular) shape parallel to the texture direction, or an arc shape or a triangular shape as shown in FIG. 19 (b). May be good.

ここで、図19(a)に示すような帯状の投票対象領域を設定する場合には、上述したテクスチャ方向に平行な直線上に存在する投票対象画素に対して投票を行う場合と同様に、投票対象領域に含まれる投票対象画素のそれぞれに対して平等に投票すれば良い。つまり、RAM40上の投票集計領域において、各投票対象画素に対応する記憶領域に平等に投票値「1」を加算する。   Here, when setting a belt-like voting target area as shown in FIG. 19A, as in the case of voting on the voting target pixel existing on a straight line parallel to the texture direction, What is necessary is just to vote equally with respect to each of the voting target pixels included in the voting target area. That is, the vote value “1” is equally added to the storage area corresponding to each vote target pixel in the vote total area on the RAM 40.

これに対し、図19(b)に示すような円弧状或いは三角形状の投票対象領域を設定する場合には、投票元画素と投票対象画素との間の距離に応じて投票値を変更することが望ましい。具体的には、投票元画素から遠い距離に位置する投票対象画素の投票値を小さくする(例えば、投票値=1/投票元画素からの距離)。つまり、投票元画素に近い位置の投票対象画素の投票値は「1」又は「1」に近い値となるが、投票元画素から遠い位置の投票対象画素の投票値は「0.5」等の小数点以下の値となる。更には、投票対象領域において同じ距離に位置する投票対象画素の総投票値が「1」となるように各投票対象画素の投票値を決定することが望ましい。つまり、例えば同じ距離に位置する投票対象画素が4つ存在すると仮定すると、それら4つの各投票対象画素に対する投票値をそれぞれ「0.25」とする。   On the other hand, when setting an arc-shaped or triangular voting target area as shown in FIG. 19B, the voting value is changed according to the distance between the voting source pixel and the voting target pixel. Is desirable. Specifically, the voting value of the voting target pixel located at a distance far from the voting source pixel is reduced (for example, voting value = 1 / distance from the voting source pixel). That is, the voting value of the voting target pixel at a position close to the voting source pixel is “1” or a value close to “1”, but the voting value of the voting target pixel at a position far from the voting source pixel is “0.5” or the like. The value after the decimal point. Furthermore, it is desirable to determine the voting value of each voting target pixel so that the total voting value of the voting target pixels located at the same distance in the voting target region is “1”. That is, for example, assuming that there are four voting target pixels located at the same distance, the voting value for each of the four voting target pixels is set to “0.25”.

このように円弧状或いは三角形状の投票対象領域を設定した場合に、投票元画素と投票対象画素との間の距離に応じて投票値を変更する理由は、投票元画素から遠い位置にある投票対象画素は、他の投票対象領域と重なり合う確率が高く、近い位置にある投票対象画素と比べて投票されやすい傾向にあり、後述する消失点を正確に特定することが困難となるためである。また、円弧状或いは三角形状の投票対象領域を設定した場合、その中心角度(投票元画素を起点とする角度)は、ガボールフィルタF1〜F30の方向パラメータφの変化分と同一にすることが望ましい。   When the voting target area having an arc shape or a triangular shape is set in this way, the reason for changing the voting value according to the distance between the voting source pixel and the voting target pixel is that the voting is located far from the voting source pixel. This is because the target pixel has a high probability of overlapping with other voting target areas and tends to be voted more easily than the voting target pixel located at a close position, and it is difficult to accurately specify a vanishing point described later. Further, when the voting target area having an arc shape or a triangular shape is set, it is desirable that the center angle (the angle starting from the voting source pixel) is the same as the change in the direction parameter φ of the Gabor filters F1 to F30. .

続いて、小領域形成部31aは、図20に示す通り、投票処理による投票結果(つまり、RAM40上の投票集計領域に集計された投票回数)を基に、投票回数が最も大きい画素を入力画像における消失点として特定する(ステップS25:消失点特定処理)。図20,図21は、小領域形成部31aの消失点特定処理に関する説明図である。轍等の通路の波模様は車両等から見ると完全に平行ではないが同じ消失点を共有していると推測される。このため、上記のような投票処理によって消失点と推測される位置(画素)に投票を行い、統計的に通路と平行している波模様が多い検出結果を活用することにより、消失点を特定することができる。   Subsequently, as shown in FIG. 20, the small area forming unit 31 a selects the pixel having the largest vote number based on the vote result by the voting process (that is, the vote count counted in the vote count area on the RAM 40). The vanishing point is identified (step S25: vanishing point identifying process). 20 and 21 are explanatory diagrams regarding the vanishing point specifying process of the small region forming unit 31a. The wave pattern of the corridor and the like is not completely parallel when viewed from a vehicle or the like, but is presumed to share the same vanishing point. For this reason, the vanishing point is identified by voting to the position (pixel) that is estimated to be the vanishing point by the voting process as described above, and utilizing the detection result that has statistically many wave patterns parallel to the passage. can do.

ここで、入力画像において通路以外に、例えば木や電柱、看板等のコントラストの高い物体が写り込んでいた場合、それらの模様は上記の投票回数の集計に大きな影響を及ぼすことになる。そこで、上述したように、投票処理を行う際には、強エッジ領域抽出処理にて抽出された強エッジ領域に含まれる画素を投票元画素から除外することにより、木や電柱、看板等のコントラストの高い物体の延長線上が消失点として特定されることを防止することができる。   Here, in the input image, if a high contrast object such as a tree, a power pole, or a signboard is reflected in addition to the passage, these patterns have a great influence on the total number of votes. Therefore, as described above, when performing the voting process, the pixels included in the strong edge area extracted by the strong edge area extraction process are excluded from the voting source pixels, so that the contrast of trees, utility poles, signs, etc. It is possible to prevent the extension line of an object having a high height from being identified as a vanishing point.

ところで、図20に示す通り、入力画像中に存在する轍等の通路が水平線に向かって一直線に延びているような場合では消失点が1箇所において特定されることになるが、図21に示す通り、入力画像中に存在する通路がカーブしているような場合には、入力画像の奥行き方向に沿って消失点の特定箇所が変化することになる。このような場合、入力画像の全領域(通路検出対象領域の全領域)を一度に処理すると、正確な消失点を得ることができなくなる。   By the way, as shown in FIG. 20, in the case where a path such as a wrinkle present in the input image extends in a straight line toward the horizontal line, the vanishing point is specified at one place. When the path existing in the input image is curved, the specific location of the vanishing point changes along the depth direction of the input image. In such a case, if the entire area of the input image (the entire area of the path detection target area) is processed at once, an accurate vanishing point cannot be obtained.

そこで、上述の投票処理及び消失点特定処理を、図22に示す通り、通路領域検出対象領域(ここでは入力画像の全領域)を奥行き方向に沿って複数(M個)に分割して得られる長方形状の分割領域ごとに行うことが望ましい。図22,図23は、小領域形成部31aの小領域分割処理に関する説明図である。以下では、この分割領域をスライスと呼び、入力画像の最下段から最上段までの各スライスの符号をSL0〜SLMとする。つまり、各スライスSL0〜SLMの各々について上述の投票処理及び消失点特定処理を行うことにより、各スライスSL0〜SLMの各々について消失点が得られることになる。尚、図22では、スライスSL0の消失点P0とスライスSL1の消失点P1とを代表的に図示している。   Therefore, the above-described voting process and vanishing point specifying process are obtained by dividing the passage area detection target area (here, the entire area of the input image) into a plurality (M) along the depth direction as shown in FIG. It is desirable to carry out every rectangular divided area. 22 and 23 are explanatory diagrams regarding the small area dividing process of the small area forming unit 31a. Hereinafter, this divided area is referred to as a slice, and the symbols of the slices from the lowest level to the highest level of the input image are SL0 to SLM. That is, the vanishing point is obtained for each of the slices SL0 to SLM by performing the voting process and the vanishing point specifying process for each of the slices SL0 to SLM. In FIG. 22, the vanishing point P0 of the slice SL0 and the vanishing point P1 of the slice SL1 are representatively illustrated.

続いて、小領域形成部31aは、図22に示す通り、各スライスSL0〜SLMの各々を、それぞれの消失点を頂点として放射状に引かれた複数の直線とスライスの境界線とで囲まれた複数(N個)の小領域に分割し、各小領域の各々に対して、その小領域に含まれる消失点の投票元画素の比率を基に決定した通路候補パラメータを与える(ステップS26:小領域分割処理)。各スライスSL0〜SLMの各々に存在する轍等の通路は、全てその消失点に向かう直線で表されるため、上記の小領域のいずれかに通路が存在すると推定される。   Subsequently, as illustrated in FIG. 22, the small region forming unit 31 a surrounded each of the slices SL <b> 0 to SLM with a plurality of straight lines drawn radially from the respective vanishing points and the boundary lines of the slices. Each of the small areas is divided into a plurality (N) of small areas, and the path candidate parameters determined based on the ratio of the voting source pixels of the vanishing points included in the small areas are given (step S26: small) Region division processing). Since all the paths such as wrinkles that exist in each of the slices SL0 to SLM are represented by straight lines toward the vanishing point, it is estimated that a path exists in one of the small areas.

尚、上記の通路候補パラメータは、入力画像に含まれる通路領域を推定するために必要な通路推定情報の1つであり、通路領域の一部である可能性の高さを示すパラメータである。小領域の各々に設定する通路推定情報としては、例として以下の5つが挙げられる。
(1)その小領域のY方向(縦方向)インデックスIdy
(2)その小領域のX方向(横方向)インデックスIdx
(3)その小領域の消失点座標
(4)その小領域の通路検出強度(通路候補パラメータ:0,1,2の何れかの数値)
(5)その小領域の上下端座標
The path candidate parameter is one of path estimation information necessary for estimating the path area included in the input image, and is a parameter indicating a high possibility of being a part of the path area. As the path estimation information set in each of the small areas, there are the following five examples.
(1) Y direction (vertical direction) index Idy of the small area
(2) X direction (lateral direction) index Idx of the small area
(3) Vanishing point coordinates of the small region (4) Passage detection intensity of the small region (passage candidate parameter: any one of 0, 1, 2)
(5) Upper and lower end coordinates of the small area

ここで、小領域のY方向インデックスIdyとは、その小領域のY方向の位置を示すパラメータであり、例えば、図22に示す通り、スライスSL0に存在する全ての小領域のY方向インデックスIdyは「0」となる。また、小領域のX方向インデックスIdxとは、その小領域のX方向の位置を示すパラメータであり、例えば、図22に示すように、スライスSL0に存在する左端の小領域のX方向インデックスIdxは「0」となる。   Here, the Y-direction index Idy of the small area is a parameter indicating the position of the small area in the Y direction. For example, as shown in FIG. 22, the Y-direction index Idy of all the small areas in the slice SL0 is “0”. The X direction index Idx of the small area is a parameter indicating the position of the small area in the X direction. For example, as shown in FIG. 22, the X direction index Idx of the leftmost small area existing in the slice SL0 is “0”.

小領域の消失点座標とは、その小領域が存在するスライスの消失点の座標であり、例えば、図22に示す通り、スライスSL0に存在する全ての小領域の消失点座標は、スライスSL0の消失点P0の座標となる。また、小領域の通路検出強度とは、通路候補パラメータに相当し、「0」がその小領域が通路領域の一部である可能性が最も低く、「2」がその小領域が通路領域の一部である可能性が最も高いことを示している。   The vanishing point coordinates of the small area are the coordinates of the vanishing point of the slice where the small area exists. For example, as shown in FIG. 22, the vanishing point coordinates of all the small areas existing in the slice SL0 are the coordinates of the slice SL0. It becomes the coordinates of the vanishing point P0. The passage detection intensity of the small area corresponds to the passage candidate parameter, and “0” is the least likely that the small area is a part of the passage area, and “2” is the small area of the passage area. It is the most likely part.

具体的には、小領域形成部31aは、小領域の通路検出強度を以下のように決定する。つまり、小領域形成部31aは、まず、各小領域の各々について、その小領域に含まれる画素からその消失点の投票元画素(消失点を向いているテクスチャ方向を有する画素)を有効投票画素(共通項)として抽出する。そして、小領域形成部31aは、その小領域に含まれる有効投票画素数を、その小領域に含まれる全画素数で除算することにより、その小領域における有効投票画素の比率rを算出する。そして、小領域形成部31aは、上記のように算出した有効投票画素の比率rと第1閾値TH1及び第2閾値TH2(ただし、TH1<TH2)とを比較し、r<TH1の場合にはその小領域の通路検出強度を「0」とし、TH1≦r<TH2の場合にはその小領域の通路検出強度を「1」とし、r≧TH2の場合にはその小領域の通路検出強度を「2」とする。尚、ここでは、消失点を向いているテクスチャ方向を有する画素を有効投票画素(共通項)としたが、小領域の周辺で最も多い向きのテクスチャ方向に一致する画素を有効投票画素とするなど、様々な共通性を利用しても良い。   Specifically, the small area forming unit 31a determines the passage detection intensity of the small area as follows. In other words, the small area forming unit 31a first determines, for each small area, the voting source pixel of the vanishing point (the pixel having the texture direction facing the vanishing point) from the pixels included in the small area. Extract as (common item). Then, the small area forming unit 31a calculates the ratio r of effective voting pixels in the small area by dividing the number of effective voting pixels included in the small area by the total number of pixels included in the small area. Then, the small area forming unit 31a compares the effective vote pixel ratio r calculated as described above with the first threshold value TH1 and the second threshold value TH2 (where TH1 <TH2), and when r <TH1, The passage detection intensity of the small area is set to “0”. When TH1 ≦ r <TH2, the passage detection intensity of the small area is set to “1”. When r ≧ TH2, the passage detection intensity of the small area is set to “1”. “2”. Here, the pixels having the texture direction facing the vanishing point are set as effective voting pixels (common items). However, the pixels matching the texture direction having the most orientation around the small area are set as effective voting pixels. Various commonality may be used.

図23に示す通り、以下では、その小領域の通路検出強度が「2」の場合、つまりその小領域が通路領域の一部である可能性が最も高い場合には、その通路を濃い色で消失点に向かう1本の直線で表現し、その小領域の通路検出強度が「1」の場合、つまりその小領域が通路領域の一部である可能性がある場合には、その通路を薄い色で消失点に向かう1本の直線で表現するものとする。また、その小領域の通路検出強度が「0」の場合、つまりその小領域が通路領域の一部である可能性が最も低い場合には、通路を示す直線を描画しないものとする。   As shown in FIG. 23, in the following, when the passage detection intensity of the small area is “2”, that is, when the possibility that the small area is a part of the passage area is the highest, the passage is displayed in a dark color. When the path detection intensity of the small area is “1”, that is, when the small area may be a part of the path area, the path is thin. It is assumed that the color is expressed by a single straight line toward the vanishing point. When the passage detection intensity of the small area is “0”, that is, when the possibility that the small area is a part of the passage area is the lowest, a straight line indicating the passage is not drawn.

以上説明したステップS26の処理が終了すると、中心ブロック抽出部31に設けられた小領域選別部31bは、各小領域に与えられた通路推定情報(特に通路検出強度)に基づいて、これらの小領域を通路候補領域(通路検出強度が「1」以上の小領域)とそれ以外の非通路候補領域(通路検出強度が「0」の小領域)とに選別する(ステップS27:ノイズフィルタリング処理)。図24〜図26は、小領域選別部31bのノイズフィルタリング処理に関する説明図である。   When the processing of step S26 described above is completed, the small area selection unit 31b provided in the central block extraction unit 31 performs the small area based on the path estimation information (particularly the path detection intensity) given to each small area. The areas are classified into path candidate areas (small areas with path detection intensity “1” or higher) and other non-path candidate areas (small areas with path detection intensity “0”) (step S27: noise filtering process). . 24-26 is explanatory drawing regarding the noise filtering process of the small area selection part 31b.

小領域選別部31bは、図24に示す通り、処理対象の小領域Wに対して、隣接する6つの小領域a,b,c,d,e,fに設定された通路検出強度を参照する。尚、これら6つの小領域a〜fとしては、各々の中心線の位置を基準に、処理対象の小領域Wの左上、右上、左、右、左下、右下に位置する最も近い小領域を選択する。そして、小領域選別部31bは、上記の6つの小領域a〜fに関して以下の通路候補追加条件を満たす場合に、処理対象の小領域Wの通路検出強度を「1」に変更する。   As illustrated in FIG. 24, the small area selection unit 31b refers to the passage detection strengths set in the six small areas a, b, c, d, e, and f adjacent to the small area W to be processed. . The six small regions a to f are the closest small regions located at the upper left, upper right, left, right, lower left, and lower right of the small region W to be processed with reference to the position of each center line. select. Then, the small area selection unit 31b changes the passage detection intensity of the small area W to be processed to “1” when the following passage candidate additional conditions are satisfied for the above six small areas a to f.

つまり、この時の処理対象の小領域Wは通路候補領域として選別され、通路候補領域の1つとして追加される。
通路候補追加条件:
(a or b)+ c + d + (e or f) ≧ 3
且つ
処理対象の小領域Wの通路検出強度が「0」
ここで、a〜fは、6つの小領域a〜fの通路検出強度が「1」以上の時に「1」、通路検出強度が「0」の時に「0」となる変数である。また、(a or b)は、aかbの少なくとも一方が「1」以上の時に「1」、両方が「0」の時に「0」となる論理式である。
That is, the small area W to be processed at this time is selected as a path candidate area and added as one of the path candidate areas.
Path candidate additional conditions:
(A or b) + c + d + (e or f) ≧ 3
and
The passage detection intensity of the small area W to be processed is “0”.
Here, a to f are variables that are “1” when the passage detection intensity of the six small regions a to f is “1” or more, and “0” when the passage detection intensity is “0”. (A or b) is a logical expression that is “1” when at least one of a and b is “1” or more, and “0” when both are “0”.

一方、小領域選別部31bは、上記の6つの小領域a〜fに関して以下の通路候補削除条件を満たす場合に、処理対象の小領域Wの通路検出強度を「0」に変更する。つまり、この時の処理対象の小領域Wは非通路候補領域(ノイズ成分)として選別され、通路候補領域から削除される。
通路候補削除条件:
a=0 且つ b=0 且つ e=0 且つ f=0
または
c=0 且つ d=0
On the other hand, the small area selection unit 31b changes the passage detection intensity of the small area W to be processed to “0” when the following candidate passage deletion conditions are satisfied for the above six small areas a to f. That is, the small area W to be processed at this time is selected as a non-passage candidate area (noise component) and deleted from the path candidate area.
Path candidate deletion conditions:
a = 0 and b = 0 and e = 0 and f = 0
Or
c = 0 and d = 0

上記のような通路候補追加条件及び通路候補削除条件によって処理対象の小領域は、図25に示す通り、通路候補領域と非通路候補領域とに選別される。図25(a)は処理対象の小領域Wの通路検出強度が「0」から「1」に変更される場合(通路候補領域として選別される場合)を示し、図25(b),(c)は処理対象の小領域Wの通路検出強度が「1」から「0」に変更される場合(非通路候補領域として選別される場合)を示し、図25(d)は処理対象の小領域Wの通路検出強度が「0」のまま変わらない場合を示している。尚、図中の数字はその小領域の通路検出強度を示している。   The small areas to be processed are sorted into a path candidate area and a non-path candidate area as shown in FIG. 25 according to the path candidate addition condition and path candidate deletion condition as described above. FIG. 25A shows a case where the passage detection intensity of the small region W to be processed is changed from “0” to “1” (when selected as a passage candidate region), and FIGS. ) Shows a case where the passage detection intensity of the small area W to be processed is changed from “1” to “0” (when selected as a non-passage candidate area), and FIG. 25D shows the small area to be processed. The case where the passage detection intensity of W remains “0” is shown. The numbers in the figure indicate the passage detection intensity of the small area.

小領域選別部31bは、上記のようなノイズフィルタリング処理を入力画像中の全ての小領域について順番に実施すると共に、全ての小領域の通路検出強度が変化しなくなるまでこの処理を繰り返す。例え通路検出強度が「1」以上の小領域であっても、他の通路候補領域である小領域の集団から孤立した位置に存在する小領域であれば、草や樹木等の誤検出によるノイズ成分であると考えられるため、上記のようなノイズフィルタリング処理を行うことにより、ノイズ成分である小領域を通路候補領域から除去することができる。   The small area selection unit 31b sequentially performs the noise filtering process as described above for all the small areas in the input image, and repeats this process until the passage detection intensity of all the small areas does not change. Even if the passage detection intensity is a small region of “1” or more, if the small region exists in a position isolated from a group of small regions that are other passage candidate regions, noise due to erroneous detection of grass, trees, etc. Since it is considered to be a component, a small region that is a noise component can be removed from the path candidate region by performing the noise filtering process as described above.

一方、例え通路検出強度が「0」の小領域であっても、周りを通路検出強度が「1」以上の小領域によって囲まれている場合には通路領域の一部である可能性が高い。このため、そのような通路検出強度が「0」の小領域を通路検出強度「1」の小領域に変更して通路候補領域に追加することにより、精度良く通路領域の一部である小領域(通路候補領域)を抽出することができる。   On the other hand, even if the passage detection intensity is a small area of “0”, it is highly likely that it is a part of the passage area if it is surrounded by a small area of which the passage detection intensity is “1” or more. . For this reason, a small region that is a part of the passage region is accurately obtained by changing the small region having the passage detection intensity “0” to the small region having the passage detection intensity “1” and adding the small region to the candidate passage region. (Passage candidate area) can be extracted.

以上のノイズフィルタリング処理を行う前の各小領域に設定された通路検出強度を基に各小領域に存在する通路を直線で表現したものを図26(a)に示し、ノイズフィルタリング処理を行った後の各小領域の通路検出強度を基に各小領域に存在する通路を直線で表現したものを図26(b)に示す。これらの図に示す通り、ノイズフィルタリング処理を行うことにより、他の通路候補領域である小領域の集団から孤立した位置に存在する小領域はノイズ成分として除去されていることが分かる。   FIG. 26A shows a straight line representing a path existing in each small area based on the path detection intensity set in each small area before the above noise filtering process, and the noise filtering process was performed. FIG. 26B shows a straight line representing a path existing in each small area based on the path detection intensity of each subsequent small area. As shown in these drawings, it can be seen that by performing the noise filtering process, the small area existing at a position isolated from the group of small areas which are other path candidate areas is removed as a noise component.

図26(b)に示す通り、ノイズフィルタリング処理後の通路候補領域(ノイズフィルタリング処理により通路検出強度が「1」以上となった小領域)は、いくつかの連続した集団を形成している場合が多い。そこで、中心ブロック抽出部31に設けられた通路領域推定部31cは、互いに隣接している通路候補領域をグループ化することにより、連続した通路候補領域の領域群(以下、クラスタと称す)を作成する(ステップS28:クラスタリング処理)。   As shown in FIG. 26B, the path candidate area after the noise filtering process (the small area whose path detection intensity is “1” or more by the noise filtering process) forms several continuous groups. There are many. Accordingly, the passage area estimation unit 31c provided in the central block extraction unit 31 creates a group of continuous passage candidate areas (hereinafter referred to as a cluster) by grouping adjacent path candidate areas. (Step S28: Clustering process).

具体的には、通路領域推定部31cは、それぞれのクラスタを別々に取り扱うために、ラベリングの手法を用いて、クラスタ固有のIDを各通路候補領域に与える処理を行う。図27,図28は、通路領域推定部31cのクラスタリング処理に関する説明図である。この図27(a)に示す通り、クラスタリング処理の途中状態では、通路領域推定部31cは、最上段のスライスSLMにおける左端の小領域からX方向に順番に通路検出強度を確認し、その小領域が通路候補領域(通路検出強度が「1」以上)であればクラスタIDを与え、その小領域が非通路候補領域(通路検出強度が「0」)であればクラスタIDを与えない。   Specifically, the passage area estimation unit 31c performs a process of assigning a cluster-specific ID to each passage candidate area using a labeling method in order to handle each cluster separately. 27 and 28 are explanatory diagrams relating to the clustering processing of the passage area estimation unit 31c. As shown in FIG. 27 (a), in the middle of the clustering process, the passage area estimation unit 31c confirms the passage detection intensity in order from the left end small area in the uppermost slice SLM in the X direction. If the path candidate area (path detection intensity is “1” or higher), a cluster ID is given. If the small area is a non-path candidate area (path detection intensity is “0”), no cluster ID is given.

尚、通路候補領域にクラスタIDを与える場合、以下の3つの規則に従うものとする。
(1)周囲にクラスタIDを持った小領域が無い場合、新しいクラスタIDを与える(図27(a)参照)。
(2)周囲にクラスタIDを持った小領域が1つ存在する場合、それと同じクラスタIDを与える(図27参照)。
(3)周囲にクラスタIDを持った領域が2つ以上存在する場合、最も若い番号のクラスタIDを与え、これらのクラスタIDが同一のものであると記録しておく(図27(b)参照)。
It should be noted that when a cluster ID is given to a path candidate area, the following three rules are followed.
(1) If there is no small area having a cluster ID around, a new cluster ID is given (see FIG. 27A).
(2) If there is one small area having a cluster ID around it, the same cluster ID is given (see FIG. 27).
(3) When there are two or more areas having cluster IDs in the surrounding area, the cluster ID with the lowest number is given, and it is recorded that these cluster IDs are the same (see FIG. 27B). ).

通路領域推定部31cは、上記の3つの規則に従って入力画像中の全ての通路候補領域にクラスタIDを与えた後、もう一度、入力画像全体を走査することにより、同一であると記録したクラスタIDを1つのクラスタID(最も若い番号のクラスタID)に置き換える。以上のようなクラスタリング処理によって、互いに隣接している通路候補領域に同一のクラスタIDが与えられてグループ化され、連続した通路候補領域の領域群であるクラスタが作成される。図28に示す通り、クラスタリング処理によって入力画像中に存在する通路候補領域が3つのクラスタCL1,CL2,CL3にグループ化されていることが分かる。   The passage area estimation unit 31c gives the cluster IDs to all the passage candidate areas in the input image according to the above three rules, and then scans the entire input image once more, so that the cluster ID recorded as the same is obtained. Replace with one cluster ID (the cluster ID with the lowest number). By the clustering process as described above, the same cluster ID is given to the adjacent path candidate areas, and a cluster which is an area group of continuous path candidate areas is created. As shown in FIG. 28, it can be seen that the path candidate regions existing in the input image are grouped into three clusters CL1, CL2, and CL3 by the clustering process.

続いて、通路領域推定部31cは、上記のクラスタリング処理によって作成されたクラスタから最適なクラスタ(最も轍等の通路らしいクラスタ)を、入力画像に含まれる通路領域として選択する(ステップS29:最適クラスタ選択処理)。具体的には、通路領域推定部31cは、前述した(2)式で示される評価関数f(F,H,C,A)を用いて最適なクラスタ(以下、最適クラスタと称す)を選択する。尚、本実施形態では、第1重み係数k=10000、第2重み係数k=1000、第3重み係数k=50、第4重み係数k=1としている。 Subsequently, the passage area estimation unit 31c selects an optimum cluster (a cluster that seems to be the most like a passage) from the clusters created by the clustering process as a passage area included in the input image (step S29: optimum cluster). Selection process). Specifically, the passage area estimation unit 31c selects an optimum cluster (hereinafter referred to as an optimum cluster) using the evaluation function f (F, H, C, A) represented by the above-described equation (2). . In the present embodiment, the first weighting factor k 1 = 10000, the second weighting factor k 2 = 1000, the third weighting factor k 3 = 50, and the fourth weighting factor k 4 = 1.

図29,図30は、通路領域推定部30cの最適クラスタ選択処理に関する説明図である。図29に示す通り、上記の評価関数f(F,H,C,A)において、Fは現在地との連続性を示す第1変数であり、評価対象のクラスタが最も手前(最下段)のスライスSL0を含んでいる時に「1」、含んでいない時に「0」となる。また、Hは奥行き方向の長さを示す第2変数であり、評価対象のクラスタに含まれるスライス数で表される。また、Cは有力な通路候補領域の数を示す第3変数であり、評価対象のクラスタに含まれる通路検出強度「2」の通路候補領域の数で表される。また、Aは総面積を示す第4変数であり、評価対象のクラスタに含まれる通路検出強度「1」及び「2」の通路候補領域の数で表される。   29 and 30 are explanatory diagrams regarding the optimum cluster selection processing of the passage area estimation unit 30c. As shown in FIG. 29, in the evaluation function f (F, H, C, A), F is a first variable indicating continuity with the current location, and the evaluation target cluster is the foremost (bottommost) slice. “1” when SL0 is included, and “0” when SL0 is not included. H is a second variable indicating the length in the depth direction and is represented by the number of slices included in the cluster to be evaluated. C is a third variable indicating the number of effective path candidate areas, and is represented by the number of path candidate areas of path detection intensity “2” included in the cluster to be evaluated. A is a fourth variable indicating the total area, and is represented by the number of path candidate areas having path detection intensities “1” and “2” included in the cluster to be evaluated.

上述した通り、評価関数f(F,H,C,A)において現在地との連続性を示す第1変数であるFに最も大きな重み付け係数kが与えられている。これは、評価対象のクラスタが現在地(入力画像の最も手前側の領域)との連続性を有している場合には、その評価対象のクラスタは轍等の通路である可能性が極めて高いからである。尚、上述した重み付け係数k〜kの値は一例であり、実験等を行って適宜決定すれば良い。 As described above, the evaluation function f (F, H, C, A) the largest weighting coefficient k 1 to F is a first variable indicating the continuity of the current position is given in. This is because if the cluster to be evaluated has continuity with the current location (the area closest to the input image), the cluster to be evaluated is very likely to be a corridor or the like. It is. Note that the values of the weighting coefficients k 1 to k 4 described above are examples, and may be determined as appropriate through experiments.

通路領域推定部31cは、例えば図28に示した通り、クラスタリング処理によって3つのクラスタCL1,CL2,CL3が作成されているとすると、これら3つのクラスタCL1,CL2,CL3の各々について上記の評価関数f(F,H,C,A)の値を求め、この値が最も大きいクラスタを最適なクラスタ(入力画像に含まれる通路領域)として選択する。3つのクラスタCL1,CL2,CL3のうち、クラスタCL3が最も手前側(最下段)のスライスSL0を含んでいるため、評価関数f(F,H,C,A)の値が最も大きくなる。このため、図30に示す通り、クラスタCL3が最適なクラスタ(入力画像に含まれる通路領域)として選択されることになる。   For example, as shown in FIG. 28, the passage area estimation unit 31c assumes that the three clusters CL1, CL2, and CL3 have been created by the clustering process, and the above evaluation function for each of the three clusters CL1, CL2, and CL3. A value of f (F, H, C, A) is obtained, and a cluster having the largest value is selected as an optimum cluster (passage area included in the input image). Among the three clusters CL1, CL2, CL3, the cluster CL3 includes the foremost (lowermost) slice SL0, and thus the value of the evaluation function f (F, H, C, A) becomes the largest. Therefore, as shown in FIG. 30, the cluster CL3 is selected as the optimum cluster (passage area included in the input image).

次に、中心ブロック抽出部31に設けられた中心線推定部31dは、上記の最適クラスタ選択処理によって選択された最適クラスタ、つまり入力画像に含まれる通路領域の中心線を推定する(ステップS30:中心線推定処理)。図31は、中心ブロック抽出部31における中心線推定部30dの中心線推定処理を表すフローチャートである。図31に示す通り、中心線推定部31dは、まず、各スライスSL0〜SLMの重心を算出する(ステップS30a)。   Next, the center line estimation unit 31d provided in the center block extraction unit 31 estimates the optimum cluster selected by the above optimum cluster selection process, that is, the center line of the passage area included in the input image (step S30: Centerline estimation process). FIG. 31 is a flowchart showing the center line estimation process of the center line estimation unit 30d in the center block extraction unit 31. As shown in FIG. 31, the centerline estimation unit 31d first calculates the center of gravity of each of the slices SL0 to SLM (step S30a).

具体的には、スライス内に存在する小領域を台形としてそれぞれの重心の位置を求め、それらの位置を通路検出強度で重みを付けて平均化して得られる位置を、そのスライス全体の重心とする。図32〜図34は、中心線推定部31dの中心線推定処理に関する説明図である。以上の処理を行うことによって、図32(a)に示す通り、各スライスSL0〜SLMの重心が求められる。   Specifically, the position of each center of gravity is obtained by using a small area existing in the slice as a trapezoid, and the position obtained by weighting and averaging these positions with the path detection intensity is set as the center of gravity of the entire slice. . 32 to 34 are explanatory diagrams regarding the centerline estimation processing of the centerline estimation unit 31d. By performing the above processing, the centroids of the slices SL0 to SLM are obtained as shown in FIG.

続いて、中心線推定部31dは、仮の中心線を作成する(ステップS30b)。具体的には、中心線推定部31dは、1回目の仮の中心線を作成する場合には、図33(a)に示す通り、最下段のスライスSL0の重心を起点として、そのスライスSL0の消失点P0へ向かう方向に直線を引く。そして、中心線推定部31dは、図33(b)に示す通り、上記の直線が次のスライスSL1との境界に達すると、その直線と境界との交点からスライスSL1の消失点P1へ向かう方向に直線を引く。中心線推定部31dは、図33(c)に示すように、上記のような処理を繰り返すことにより得られる折れ線を1回目の仮の中心線とする。   Subsequently, the centerline estimation unit 31d creates a temporary centerline (step S30b). Specifically, when creating the first temporary center line, the center line estimation unit 31d uses the center of gravity of the lowermost slice SL0 as a starting point, as shown in FIG. A straight line is drawn in the direction toward the vanishing point P0. Then, as shown in FIG. 33B, the center line estimation unit 31d, when the above straight line reaches the boundary with the next slice SL1, the direction from the intersection of the straight line and the boundary toward the vanishing point P1 of the slice SL1. Draw a straight line. As shown in FIG. 33C, the center line estimation unit 31d sets a polygonal line obtained by repeating the above processing as the first temporary center line.

そして、中心線推定部31dは、上記のように作成した仮の中心線と、各スライスSL0〜SLMの重心との間の距離(X方向の差)の2乗和を計算して記録する(ステップS30c)。ここで、中心線推定部31dは、上述したステップS30b及びS30cをループすることにより、複数の仮の中心線を作成すると共に、それぞれの仮の中心線について各スライスSL0〜SLMの重心との間の距離の2乗和を計算して記録する。   Then, the centerline estimation unit 31d calculates and records the sum of squares of the distance (difference in the X direction) between the temporary centerline created as described above and the centroids of the slices SL0 to SLM ( Step S30c). Here, the centerline estimation unit 31d creates a plurality of temporary centerlines by looping the above-described steps S30b and S30c, and between each temporary centerline and the center of gravity of each slice SL0-SLM. Calculate and record the sum of squared distances.

具体的には、中心線推定部31dは、2回目以降の仮の中心線を作成する場合、前回の仮の中心線の起点から右に1°ずつずらした点を起点として、1回目と同様な手法で仮の中心線を作成し2乗和を記録する。そして、中心線推定部31dは、作成した仮の中心線が全てのスライスの重心の右側を通っていた場合、右方向の探索を打ち切り、それ以降は、1回目の仮の中心線の起点から左に1°ずつずらした点を起点として、1回目と同様な手法で仮の中心線を作成し2乗和を記録する。更に、中心線推定部31dは、作成した仮の中心線が全てのスライスの重心の左側を通っていた場合、左方向の探索を打ち切り、ループを終了して次のステップS30dへ移行する。   Specifically, when the center line estimation unit 31d creates a temporary center line for the second and subsequent times, the center line estimation unit 31d starts from the point shifted by 1 ° to the right from the starting point of the previous temporary center line, and is the same as the first time. A temporary center line is created by a simple method and the sum of squares is recorded. Then, the centerline estimation unit 31d aborts the search in the right direction when the created temporary centerline passes the right side of the centroid of all slices, and thereafter, from the starting point of the first temporary centerline. A temporary center line is created using the same method as the first time, starting from a point shifted by 1 ° to the left, and the sum of squares is recorded. Furthermore, if the created temporary center line passes through the left side of the center of gravity of all slices, the center line estimation unit 31d terminates the search in the left direction, ends the loop, and proceeds to the next step S30d.

中心線推定部31dは、上述したステップS30b及びS30cのループにより、複数の仮の中心線を作成してそれらの2乗和を記録すると、その2乗和の値が最も小さい中心線を最適な中心線として選択する(ステップS30d)。尚、仮の中心線と各スライスSL0〜SLMの重心との間の距離の2乗和を計算する処理のイメージを図32(b)に示しており、最適な中心線の選択結果を示すイメージを図32(c)に示している。また、図30において最適クラスタとして選択されたクラスタCL3について中心線推定処理を行うことで得られた最適な中心線のイメージを図34に示している。   When the centerline estimation unit 31d creates a plurality of temporary centerlines and records the sum of squares thereof by the loop of steps S30b and S30c described above, the centerline having the smallest value of the sum of squares is optimized. The center line is selected (step S30d). An image of the process of calculating the sum of squares of the distance between the temporary center line and the centroids of the slices SL0 to SLM is shown in FIG. 32 (b), and an image showing the optimum center line selection result. Is shown in FIG. FIG. 34 shows an image of the optimum center line obtained by performing the center line estimation process on the cluster CL3 selected as the optimum cluster in FIG.

以上の処理が終了すると、入力画像データが、一辺が20画素程度からなる正方形のブロックに区分される。そして、以上の処理にて得られた中心線が通るブロックが中心ブロックとして抽出される(ステップS31)。図35は、推定された中心線から中心ブロックが抽出される様子を示す図である。いま、図35(a)に示す画像に対して以上説明した処理が行われて、図中の中心線CLが得られたとする。   When the above processing is completed, the input image data is divided into square blocks each having about 20 pixels. Then, the block through which the center line obtained by the above processing passes is extracted as the center block (step S31). FIG. 35 is a diagram illustrating a state in which the center block is extracted from the estimated center line. Now, it is assumed that the above-described processing is performed on the image shown in FIG. 35A to obtain the center line CL in the figure.

中心線推定部31dは、図35(b)に示す通り、入力画像データを複数のブロックBに区分する。尚、図35(b)に示す例では横方向に約30、縦方向に約23のブロックBに区分されている。そして、中心線推定部31dは、図35(a)に示す中心線CLが通るブロックを中心ブロックCBとして抽出する。ここで、図35(a)に示す中心線CLは画像の最下部から画像の高さの2/3程度までの領域に亘るものであるが、図35(b)に示す6個の中心ブロックCBは画像の最下部から画像の高さの1/4程度までの領域に限られている。これは、画像の上部に行くほど画像が不鮮明になり、中心ブロックが誤った位置に検出される可能性が高くなるためである。   The centerline estimation unit 31d divides the input image data into a plurality of blocks B as shown in FIG. In the example shown in FIG. 35B, the block B is divided into about 30 blocks B in the horizontal direction and about 23 blocks in the vertical direction. Then, the centerline estimation unit 31d extracts a block through which the centerline CL shown in FIG. 35A passes as a center block CB. Here, the center line CL shown in FIG. 35A extends from the bottom of the image to about 2/3 of the height of the image, but the six center blocks shown in FIG. CB is limited to the area from the bottom of the image to about ¼ of the height of the image. This is because the image becomes unclear as it goes to the upper part of the image, and the possibility that the center block is detected at an incorrect position is increased.

中心ブロックCBの抽出が終了すると(あるいは図12のステップS12の処理と並行してまたはステップS12の処理に先行して)、植生検出処理が植生検出部32で行われる(図12のステップS13:植生検出ステップ)。具体的には、上述したように、植生検出部32は、赤外線画像の画像データに基づき、画像中の画素毎に、SWIRの波長帯域に関する画像データに基づいて算出される反射率と、NIRの波長帯域に関する画像データに基づいて算出される反射率との比(反射率比)を算出し(図5のステップS41)、(2)その反射率比と所定の閾値とを比較することによって、観測対象物が植物か否かを判別する(図5のステップS42)。   When the extraction of the center block CB is completed (or in parallel with the process of step S12 of FIG. 12 or prior to the process of step S12), the vegetation detection unit 32 performs the vegetation detection process (step S13 of FIG. 12: Vegetation detection step). Specifically, as described above, the vegetation detection unit 32, based on the image data of the infrared image, for each pixel in the image, the reflectance calculated based on the image data related to the SWIR wavelength band, and the NIR By calculating the ratio (reflectance ratio) with the reflectance calculated based on the image data relating to the wavelength band (step S41 in FIG. 5), (2) by comparing the reflectance ratio with a predetermined threshold value, It is determined whether or not the observation object is a plant (step S42 in FIG. 5).

ステップS13で入力画像データの各画素について、植生か否かの検出処理が終了すると、次にステップS12で抽出された中心ブロックCBを補正する処理が、中心ブロック補正部33で行われる(ステップS14:中心ブロックの補正ステップ)。具体的には、上述したようにして、中心ブロック補正部33の植生割合算出部33aが、中心ブロックの周囲のブロック(例えば、横一列のブロック)それぞれにおける植物の割合を計算する。次に、中心ブロック変更部33bが、植生割合算出部33aで算出された植物の割合の計算結果に基づいて、最も植物の割合が少ないブロックを「補正済み中心ブロック」とする。   When the detection process of whether or not each pixel of the input image data is vegetation is completed in step S13, the process of correcting the central block CB extracted in step S12 is performed in the central block correction unit 33 (step S14). : Center block correction step). Specifically, as described above, the vegetation ratio calculation unit 33a of the center block correction unit 33 calculates the ratio of plants in each of the blocks around the center block (for example, blocks in a horizontal row). Next, based on the calculation result of the plant ratio calculated by the vegetation ratio calculating unit 33a, the center block changing unit 33b sets the block having the smallest plant ratio as the “corrected center block”.

図36は、補正された中心ブロックの一例を示す図である。図35(b)に示す例では、轍と草との境界付近に6個の中心ブロックCBが配置されていた。これに対し、図36に示す例では、轍と草との境界付近ではなく、轍の略中心付近に位置するブロックが抽出されていることが分かる。かかる補正によって、中心ブロック抽出部31によって抽出された中心ブロックよりも正確な中心ブロックを得ることができる。   FIG. 36 is a diagram illustrating an example of the corrected center block. In the example shown in FIG. 35 (b), six central blocks CB are arranged in the vicinity of the boundary between the fence and the grass. On the other hand, in the example shown in FIG. 36, it can be seen that a block located not near the boundary between the cocoon and the grass but near the approximate center of the cocoon is extracted. With this correction, a center block that is more accurate than the center block extracted by the center block extraction unit 31 can be obtained.

中心ブロックCBの補正が終了すると、通路領域を検出する処理が通路領域検出部34で行われる(ステップS15:検出ステップ)。処理が開始されると、まず基準ブロックを特定する処理が行われる。図37は、基準ブロックを説明するための図である。具体的には、ステップS12で補正された中心ブロックCBと中心ブロックの左右方向に隣接するブロックLBとが基準ブロックに特定される。尚、図37に示す例では、6個の中心ブロックCBと12個のブロックLBとからなる合計18個のブロックが基準ブロックとして特定されている。   When the correction of the center block CB is completed, a process for detecting the passage area is performed by the passage area detection unit 34 (step S15: detection step). When processing is started, processing for specifying a reference block is first performed. FIG. 37 is a diagram for explaining the reference block. Specifically, the center block CB corrected in step S12 and the block LB adjacent to the center block in the left-right direction are specified as the reference block. In the example shown in FIG. 37, a total of 18 blocks including 6 central blocks CB and 12 blocks LB are specified as reference blocks.

以上の処理が終了すると、まず、特定された基準ブロックについて、特徴量の平均値及び標準偏差を特徴量の種類毎に求める処理が第1算出部34aで行われる(ステップS151)。次に、特徴量算出部32で求められた全てのブロックについての特徴量の平均値を特徴量の種類毎に求める処理が第2算出部34bで行われる(ステップS152)。ここで、図37に示す画像の上部の領域Rには地平線の上方の画像が写り込んでおり、かかる領域Rの画像は通路領域としての轍の検出には関与しない画像である。このため、ステップS152の処理を行う場合には、この領域R内のブロックを除外し、残りのブロックについての特徴量の平均値を求めるのが望ましい。   When the above processing ends, first, the first calculation unit 34a performs processing for obtaining the average value and the standard deviation of the feature amount for each type of feature amount for the identified reference block (step S151). Next, a process for obtaining the average value of the feature values for all the blocks obtained by the feature value calculation unit 32 for each type of feature value is performed by the second calculation unit 34b (step S152). Here, an image above the horizon is reflected in a region R at the top of the image shown in FIG. 37, and the image in the region R is an image that does not participate in the detection of wrinkles as a passage region. For this reason, when performing the process of step S152, it is desirable to exclude the block in this area | region R and to obtain | require the average value of the feature-value about the remaining blocks.

以上の処理が終了すると、重み決定部34cによって特徴量毎の重みが決定される(ステップS153)。具体的には、ステップS151で求められた基準ブロックについての特徴量の平均値μ^及び標準偏差σ^と、ステップS152で求められた全てのブロックについての平均値μとを、特徴量の種類毎に前述した(3)式に代入し、特徴量の種類毎の重みw′を決定する処理が行われる。尚、得られた重みw′が負の値である場合には、その値を零に決定する処理が行われる。重み決定部34cは、以上の重みw′を決定したら、前述した(4)式を用いて正規化した重みwを求めるとともに、前述した(5)式を用いて各特徴量を正規化するための正規化係数sを求める処理も行う。 When the above processing ends, the weight determining unit 34c determines the weight for each feature amount (step S153). Specifically, the feature value average value μ ^ i and standard deviation σ ^ i for the reference block obtained in step S151 and the average value μ i for all the blocks obtained in step S152 are characterized. A process for determining the weight w ′ i for each type of feature quantity is performed by substituting the formula (3) for each quantity type. When the obtained weight w ′ i is a negative value, a process for determining the value to be zero is performed. When the weight determination unit 34c determines the weight w ′ i described above, the weight determination unit 34c obtains the normalized weight w i using the above-described equation (4) and normalizes each feature amount using the above-described equation (5). A process for obtaining a normalization coefficient s i is also performed.

特徴量に対する重み付けが終了すると、通路領域検出部34で重み付けされた特徴量を用いて画像に含まれる轍を抽出する処理が抽出部34dで行われる(ステップS154)。具体的には、まず処理対象のブロックを特定し、そのブロックのi番目の特徴量の値f及びそのブロックと画像の縦方向の位置が同じである中心ブロックにおけるi番目の特徴量の値fci、並びに、ステップS153の処理にて得られた重みw及び正規化係数sを前述した(6)式に示す評価関数Eに代入する。そして、評価関数Eの値が所定値Tよりも大きい場合に、その処理対象のブロックに轍の画像が含まれると評価してそのブロックを抽出する。 When the weighting for the feature amount is completed, the extraction unit 34d performs a process of extracting the wrinkles included in the image using the feature amount weighted by the passage area detection unit 34 (step S154). Specifically, a block to be processed is first identified, and the i-th feature value f i of the block and the i-th feature value in the central block where the position of the block and the image in the vertical direction are the same. f ci , and the weight w i and the normalization coefficient s i obtained in the process of step S153 are substituted into the evaluation function E shown in the above-described equation (6). Then, when the value of the evaluation function E is larger than the predetermined value T, it is evaluated that the image of the eyelid is included in the processing target block, and the block is extracted.

尚、処理対象のブロックと画像の縦方向の位置が同じである中心ブロックが存在しない場合には、画像の縦方向における位置がそのブロックよりも下方向であって、そのブロックに最も近い中心ブロックを用いて上記の評価を行う。以上の処理を全てのブロック(図37中の領域R内のブロックを除く)について行うことによって轍が含まれるブロックが抽出され、これにより通路領域が検出される。   When there is no central block whose vertical position is the same as that of the block to be processed, the central block closest to that block whose vertical position is lower than that block. The above evaluation is performed using. By performing the above processing for all the blocks (excluding blocks in the region R in FIG. 37), blocks containing wrinkles are extracted, and thereby the passage region is detected.

図38は、検出された通路領域の一例を示す図である。以上の処理が行われることによって、図35(a)に示す画像から、図38中の斜線を付したブロックBEが通路領域として検出される。図38を参照すると、斜線が付されたブロックBEは、僅かながら轍とは異なる部分に点在するものの、殆どは轍が写り込んでいる部分に存在しており、通路領域である轍を高精度で検出できていることが分かる。   FIG. 38 is a diagram illustrating an example of the detected passage area. By performing the above processing, the shaded block BE in FIG. 38 is detected as a passage area from the image shown in FIG. Referring to FIG. 38, the shaded blocks BE are scattered in portions slightly different from the wrinkles, but are mostly present in the portions where the wrinkles are reflected, and the wrinkles that are the passage areas are increased. It can be seen that it can be detected with accuracy.

以上説明した通り、本実施形態によれば、入力画像に含まれる通路領域のおおよその位置を示す中心ブロックCBを抽出し、入力画像に対して複数種類のフィルタ処理を行って入力画像の評価に用いる特徴量をフィルタ処理の種類毎に求め、抽出された中心ブロックCBにおける特徴量と同様の特徴量を有する領域を入力画像から抽出することによって通路領域を検出している。その際、抽出された中心ブロックが植生領域となることを、できるだけ回避するような補正処理を行うようにしている。このため、例えば道の中央に草が生えているような場合でも正確に通路領域を検出することができる。また、中心ブロックの補正処理を、(1)植生であるか否かを画素毎に示すデータをブロック単位で積算する処理と、(2)その積算結果をブロック間で比較する処理と、で行うようにしている。そのため、補正処理を単純な加減算処理などで行うことができ、処理時間を容易に短縮することができる。よって、例えばリアルタイムに精度よく通路領域を検出することが可能となる。   As described above, according to the present embodiment, the central block CB indicating the approximate position of the passage area included in the input image is extracted, and a plurality of types of filter processing are performed on the input image to evaluate the input image. A feature amount to be used is obtained for each type of filter processing, and a passage region is detected by extracting a region having a feature amount similar to the feature amount in the extracted central block CB from the input image. At that time, correction processing is performed so as to avoid the extracted center block from becoming a vegetation region as much as possible. For this reason, for example, even when grass grows in the center of the road, the passage area can be accurately detected. Further, the correction process of the central block is performed by (1) a process of integrating data indicating whether each pixel is vegetation for each pixel, or (2) a process of comparing the integration result between blocks. I am doing so. Therefore, the correction process can be performed by a simple addition / subtraction process and the processing time can be easily shortened. Therefore, for example, it is possible to detect the passage area with high accuracy in real time.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に制限されず、本発明の範囲内で自由に変更が可能である。例えば、上記実施形態では、通路領域を検出する際に、前述した(3)式を用いて重みw′を求める例について説明したが、重み決定部34cによって決定される重みは、基準ブロックについての平均値と複数のブロックの全てについての平均値との差が大きな特徴量、及び基準ブロックについての標準偏差が小さな特徴量について重くなるものであれば良い。従って、前述した(3)式に代えて、以下の(7)式を用いて重みw′を求めても良い。 As mentioned above, although embodiment of this invention was described, this invention is not restrict | limited to the said embodiment, It can change freely within the scope of the present invention. For example, in the above embodiment, the example in which the weight w ′ i is obtained using the above-described equation (3) when detecting the passage area has been described. However, the weight determined by the weight determination unit 34c is determined for the reference block. As long as the feature value has a large difference between the average value and the average value of all the plurality of blocks, and the feature value has a small standard deviation with respect to the reference block, it may be heavy. Accordingly, the weight w ′ i may be obtained using the following equation (7) instead of the above equation (3).

また、上記実施形態では、中心ブロックCBを抽出する方法として、轍を含む通路であると推定される通路領域の中心線を用いる方法を例に挙げて説明したが、これ以外の方法を用いることも可能である。例えば、車両にレーザレーダを設け、このレーザレーダの測定結果に基づいて中心ブロックを特定しても良い。具体的には、車載カメラの視野内における特定部位(例えば、視野の最下部)をレーザレーダで走査し、得られる信号のうちの最も平坦な部分を轍と推定して中心ブロックCBを抽出して良い。   In the above embodiment, as a method for extracting the center block CB, the method using the center line of the passage area presumed to be a passage including ridges has been described as an example, but other methods are used. Is also possible. For example, a laser radar may be provided in the vehicle, and the center block may be specified based on the measurement result of the laser radar. Specifically, a specific part in the field of view of the in-vehicle camera (for example, the lowermost part of the field of view) is scanned with a laser radar, and the flattest portion of the obtained signal is estimated as 轍 and the central block CB is extracted. Good.

また、図1に示す植生検出部32は、水の吸収波長帯域における反射率と、近赤外帯域における反射率との比(反射率比)に基づいて撮影対象が植物であるか否かを検出することしたが、例えば、可視光の反射率と、水の吸収波長帯域における反射率又は近赤外帯域における反射率との比に基づいて撮影対象が植物であるか否かを検出するような構成としてもよい。この場合、例えば、図2の車載カメラ100の構成から、CCD受光素子118又はInSb半導体受光素子115のどちらか一方などの構成を省略することができる。   Further, the vegetation detection unit 32 shown in FIG. 1 determines whether or not the imaging target is a plant based on the ratio (reflectance ratio) between the reflectance in the water absorption wavelength band and the reflectance in the near-infrared band. Although detected, for example, based on the ratio between the reflectance of visible light and the reflectance in the absorption wavelength band of water or the reflectance in the near-infrared band, it is detected whether the object to be photographed is a plant. It is good also as a simple structure. In this case, for example, the configuration of either the CCD light receiving element 118 or the InSb semiconductor light receiving element 115 can be omitted from the configuration of the in-vehicle camera 100 in FIG.

1 通路検出装置
31 中心ブロック抽出部
32 植生検出部
33 中心ブロック補正部
34 通路領域検出部
34a 第1算出部
34b 第2算出部
34c 重み決定部
34d 抽出部
B ブロック
DESCRIPTION OF SYMBOLS 1 Passage detection apparatus 31 Central block extraction part 32 Vegetation detection part 33 Central block correction | amendment part 34 Passage area | region detection part 34a 1st calculation part 34b 2nd calculation part 34c Weight determination part 34d Extraction part B block

Claims (6)

所定の撮影領域を撮影した画像である入力画像に含まれる通路領域を検出する通路検出装置であって、
前記入力画像に対して所定の画像処理を行うことで前記通路領域の中心領域を抽出する抽出手段と、
前記撮影領域を撮影した赤外線画像を用いて、撮影対象が植物であるか否かを検出する植生検出手段と、
前記植生検出手段による検出結果に基づいて、前記抽出手段によって抽出された前記中心領域の位置を補正する補正手段と、
前記補正手段によって位置が補正された中心領域を基準として、前記通路領域を検出する通路領域検出手段と
を備えることを特徴とする通路検出装置。
A passage detection device that detects a passage region included in an input image that is an image obtained by photographing a predetermined photographing region,
Extraction means for extracting a central area of the passage area by performing predetermined image processing on the input image;
Vegetation detection means for detecting whether or not the photographing target is a plant, using an infrared image obtained by photographing the photographing region;
Correction means for correcting the position of the central region extracted by the extraction means based on the detection result by the vegetation detection means;
Passage area detection means for detecting the passage area with reference to a center area whose position is corrected by the correction means.
前記中心領域が、前記通路領域の中心部に位置する1又は複数の中心ブロックであり、
前記抽出手段が、前記中心領域として、前記通路領域の中心部に位置する1又は複数の中心ブロックを抽出するものであって、
前記補正手段が、前記植生検出手段による検出結果に基づいて、前記抽出手段によって抽出された前記中心ブロックの位置を補正し、
前記通路領域検出手段が、前記補正手段によって位置が補正された中心ブロックを基準として、前記通路領域を検出する
ことを特徴とする請求項1に記載の通路検出装置。
The central region is one or more central blocks located in a central portion of the passage region;
The extracting means extracts one or a plurality of central blocks located in the center of the passage area as the central area;
The correction means corrects the position of the central block extracted by the extraction means based on the detection result by the vegetation detection means,
The passage detection apparatus according to claim 1, wherein the passage region detection unit detects the passage region on the basis of a central block whose position is corrected by the correction unit.
前記補正手段が、前記抽出手段によって抽出された前記中心領域及び該中心領域の周囲の所定領域を、植物であるか否かを検出する検出の対象とした前記植生検出手段による検出結果に基づいて、前記抽出手段によって抽出された前記中心領域の位置を補正する
ことを特徴とする請求項1又は2に記載の通路検出装置。
Based on the detection result by the vegetation detection unit that is the detection target for detecting whether the correction unit detects the central region extracted by the extraction unit and the predetermined region around the central region as a plant. The path detection device according to claim 1, wherein the position of the central region extracted by the extraction unit is corrected.
前記補正手段が、前記抽出手段によって抽出された前記中心領域及び該中心領域の周囲の所定領域を、植物であるか否かを検出する検出の対象とした前記植生検出手段による検出結果に基づいて、前記中心領域及び前記周囲の所定領域のなかで植物の割合が比較的低い位置に、前記抽出手段によって抽出された前記中心領域の位置を変更する補正を行う
ことを特徴とする請求項1〜3のいずれか1項に記載の通路検出装置。
Based on the detection result by the vegetation detection unit that is the detection target for detecting whether the correction unit detects the central region extracted by the extraction unit and the predetermined region around the central region as a plant. The correction for changing the position of the central region extracted by the extracting means is performed at a position where the proportion of plants is relatively low in the central region and the surrounding predetermined region. 4. The passage detection device according to any one of 3 above.
所定の撮影領域を撮影した画像である入力画像に含まれる通路領域を検出する通路検出方法であって、
前記入力画像に対して所定の画像処理を行うことで前記通路領域の中心領域を抽出する抽出過程と、
前記撮影領域を撮影した赤外線画像を用いて、撮影対象が植物であるか否かを検出する植生検出過程と、
前記植生検出過程での検出結果に基づいて、前記抽出過程で抽出された前記中心領域の位置を補正する補正過程と、
前記補正過程で位置が補正された中心領域を基準として、前記通路領域を検出する通路領域検出過程と
を含むことを特徴とする通路検出方法。
A path detection method for detecting a path area included in an input image that is an image obtained by shooting a predetermined shooting area,
An extraction process for extracting a central area of the passage area by performing predetermined image processing on the input image;
Using an infrared image obtained by imaging the imaging region, a vegetation detection process for detecting whether the imaging target is a plant,
Based on the detection result in the vegetation detection process, a correction process for correcting the position of the central region extracted in the extraction process,
A passage area detection process for detecting the passage area with reference to a center area whose position has been corrected in the correction process.
所定の撮影領域を撮影した画像である入力画像に含まれる通路領域を検出する通路検出プログラムであって、
前記入力画像に対して所定の画像処理を行うことで前記通路領域の中心領域を抽出する抽出過程と、
前記撮影領域を撮影した赤外線画像を用いて、撮影対象が植物であるか否かを検出する植生検出過程と、
前記植生検出過程での検出結果に基づいて、前記抽出過程で抽出された前記中心領域の位置を補正する補正過程と、
前記補正過程で位置が補正された中心領域を基準として、前記通路領域を検出する通路領域検出過程と
をコンピュータを用いて実行させる
ことを特徴とする通路検出プログラム。
A passage detection program for detecting a passage region included in an input image that is an image obtained by photographing a predetermined photographing region,
An extraction process for extracting a central area of the passage area by performing predetermined image processing on the input image;
Using an infrared image obtained by imaging the imaging region, a vegetation detection process for detecting whether the imaging target is a plant,
Based on the detection result in the vegetation detection process, a correction process for correcting the position of the central region extracted in the extraction process,
A passage detection program for executing, using a computer, a passage region detection step of detecting the passage region with reference to a center region whose position has been corrected in the correction step.
JP2011059279A 2011-03-17 2011-03-17 Passage detection apparatus, method, and program Active JP5648546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011059279A JP5648546B2 (en) 2011-03-17 2011-03-17 Passage detection apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011059279A JP5648546B2 (en) 2011-03-17 2011-03-17 Passage detection apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2012194872A true JP2012194872A (en) 2012-10-11
JP5648546B2 JP5648546B2 (en) 2015-01-07

Family

ID=47086679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011059279A Active JP5648546B2 (en) 2011-03-17 2011-03-17 Passage detection apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5648546B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045508A (en) * 2014-08-19 2016-04-04 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method and algorithm for estimating degree of degradation of road surface (crack detection method using gabor filter output image of multi-resolution image)
JPWO2017068743A1 (en) * 2015-10-22 2018-07-12 京セラ株式会社 Road surface state determination device, imaging device, imaging system, and road surface state determination method
JP2018148520A (en) * 2017-03-09 2018-09-20 国立研究開発法人農業・食品産業技術総合研究機構 Attachment direction parameter calculation device for on-vehicle camera and attachment direction parameter calculation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285564A (en) * 2005-03-31 2006-10-19 Denso It Laboratory Inc Road area detection device and road area detection method
JP2009281931A (en) * 2008-05-23 2009-12-03 Ihi Corp Device and method for detecting vegetation
JP2010097360A (en) * 2008-10-15 2010-04-30 Ihi Corp Autonomous mobile robot device, operation auxiliary device for moving object, method of controlling the autonomous mobile robot device and operation auxiliary method for the moving object
JP2011008439A (en) * 2009-06-24 2011-01-13 Ihi Corp Program, device and method for detecting passage

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285564A (en) * 2005-03-31 2006-10-19 Denso It Laboratory Inc Road area detection device and road area detection method
JP2009281931A (en) * 2008-05-23 2009-12-03 Ihi Corp Device and method for detecting vegetation
JP2010097360A (en) * 2008-10-15 2010-04-30 Ihi Corp Autonomous mobile robot device, operation auxiliary device for moving object, method of controlling the autonomous mobile robot device and operation auxiliary method for the moving object
JP2011008439A (en) * 2009-06-24 2011-01-13 Ihi Corp Program, device and method for detecting passage

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200200025008; 小村 良太郎、外2名: '"ヘリコプタおよび地上観測データを用いた植生の画素成分解析"' 情報処理学会研究報告 Vol.2000, No.116, 20001215, p.49-54, 社団法人情報処理学会 *
JPN6014043337; 小村 良太郎、外2名: '"ヘリコプタおよび地上観測データを用いた植生の画素成分解析"' 情報処理学会研究報告 Vol.2000, No.116, 20001215, p.49-54, 社団法人情報処理学会 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045508A (en) * 2014-08-19 2016-04-04 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method and algorithm for estimating degree of degradation of road surface (crack detection method using gabor filter output image of multi-resolution image)
US9390343B2 (en) 2014-08-19 2016-07-12 International Business Machines Corporation Estimating degree of deterioration of road surface
JPWO2017068743A1 (en) * 2015-10-22 2018-07-12 京セラ株式会社 Road surface state determination device, imaging device, imaging system, and road surface state determination method
US10501088B2 (en) 2015-10-22 2019-12-10 Kyocera Corporation Road surface state determination apparatus, imaging apparatus, imaging system, and road surface state determination method
JP2018148520A (en) * 2017-03-09 2018-09-20 国立研究開発法人農業・食品産業技術総合研究機構 Attachment direction parameter calculation device for on-vehicle camera and attachment direction parameter calculation method

Also Published As

Publication number Publication date
JP5648546B2 (en) 2015-01-07

Similar Documents

Publication Publication Date Title
Zhang et al. New research methods for vegetation information extraction based on visible light remote sensing images from an unmanned aerial vehicle (UAV)
Liao et al. Combining feature fusion and decision fusion for classification of hyperspectral and LiDAR data
Palenichka et al. Automatic extraction of control points for the registration of optical satellite and LiDAR images
David et al. Vegetation indices and textures in object-based weed detection from UAV imagery
CN109191513B (en) Power equipment stereo matching method based on global optimization
Moussa et al. A new object based method for automated extraction of urban objects from airborne sensors data
Lin et al. Construction of fisheye lens inverse perspective mapping model and its applications of obstacle detection
WO2019026619A1 (en) Image processing device, image processing method, and program
KR102313437B1 (en) Method for estimation of bathymetry using hyperspectral image
JP5531643B2 (en) Passage detection method, apparatus, and program
JP2013109424A (en) Plant species identification program, and information processing method and device
JP5648546B2 (en) Passage detection apparatus, method, and program
Awad Toward robust segmentation results based on fusion methods for very high resolution optical image and lidar data
Palenichka et al. Multiscale isotropic matched filtering for individual tree detection in LiDAR images
JP5212212B2 (en) Passage detection program, passage detection device and method
El-Ashmawy et al. Pixel vs object-based image classification techniques for LiDAR intensity data
Smits et al. Individual tree identification using different LIDAR and optical imagery data processing methods
Xiang et al. PhenoStereo: a high-throughput stereo vision system for field-based plant phenotyping-with an application in sorghum stem diameter estimation
CN105740805B (en) One kind combining method for detecting lane lines based on multizone
JP5526805B2 (en) Weighting method, apparatus, and program, and feature image extraction method, apparatus, and program
Nobrega et al. A noise-removal approach for lidar intensity images using anisotropic diffusion filtering to preserve object shape characteristics
López et al. Multi-Spectral Imaging for Weed Identification in Herbicides Testing
JP5772500B2 (en) Program for identifying plant species, information processing method and apparatus
JP3816825B2 (en) Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program
Vollet et al. Simultaneous 3D Reconstruction and Vegetation Classification Utilizing a Multispectral Stereo Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141027

R151 Written notification of patent or utility model registration

Ref document number: 5648546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250