JP2007128141A - System and method for determining road lane number in road image - Google Patents

System and method for determining road lane number in road image Download PDF

Info

Publication number
JP2007128141A
JP2007128141A JP2005318170A JP2005318170A JP2007128141A JP 2007128141 A JP2007128141 A JP 2007128141A JP 2005318170 A JP2005318170 A JP 2005318170A JP 2005318170 A JP2005318170 A JP 2005318170A JP 2007128141 A JP2007128141 A JP 2007128141A
Authority
JP
Japan
Prior art keywords
road
lane
lane boundary
vector
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005318170A
Other languages
Japanese (ja)
Inventor
Mitsuharu Ohazama
光晴 大峡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2005318170A priority Critical patent/JP2007128141A/en
Publication of JP2007128141A publication Critical patent/JP2007128141A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system and method for determining the number of lanes by identifying each lane of a road part in a ground surface image obtained by photographing the ground surface from an artificial satellite or airplane. <P>SOLUTION: The road lane number determination system for determining the number of lanes of a road contained in the ground surface image obtained by photographing the ground surface from the artificial satellite or air plane comprises a lane boundary detection means having at least ground surface image data and road vector data, and detecting a lane boundary contained in ground surface image data corresponding to each road vector, and a road lane number determination means determining, based on information of the detected lane boundary information, the number of lanes for each road vector. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、人工衛星あるいは航空機から地表を撮影して得られる地表画像において、道路部分の各車線を識別し車線数を決定するシステム及び方法に関するものである。   The present invention relates to a system and method for identifying each lane of a road portion and determining the number of lanes in a ground image obtained by photographing the ground surface from an artificial satellite or an aircraft.

近年、人工衛星又は航空機(以下、「人工衛星等」と呼ぶ)により地表を高所から撮影して得られる人工衛星画像又は航空画像(以下、「地表画像」と呼ぶ)の利用が広まってきている。例えば、地図の作成や都市部での土地の利用状況の把握、あるいは森林等における樹木の存在状態や生育状態の分析とった目的に利用されている。撮像装置の解像度向上などに伴い、地表上の広大な領域の地表画像データを高速に取得することが可能になってきている。   In recent years, the use of artificial satellite images or aerial images (hereinafter referred to as “surface images”) obtained by photographing a ground surface from a high place with artificial satellites or aircraft (hereinafter referred to as “artificial satellites”) has become widespread. Yes. For example, it is used for the purpose of creating a map, grasping the use situation of land in an urban area, or analyzing the existence state and growth state of trees in a forest or the like. With the improvement of the resolution of the imaging device, it has become possible to acquire ground image data of a vast area on the ground at high speed.

一方で、人工衛星(GPS衛星)からの電波を受信して、緯度経度を測定することにより現在位置を把握するGPS(Global Positioning System)を利用したカーナビゲーションシステムの利用がますます広まっている。近年のカーナビゲーションシステムでは、道路地図のみならず、道路標識や車線情報が表示されるものもあり、ドライバーの走行の補助となっている。   On the other hand, the use of a car navigation system using a GPS (Global Positioning System) that grasps the current position by receiving radio waves from an artificial satellite (GPS satellite) and measuring the latitude and longitude is becoming more and more widespread. Some recent car navigation systems display not only road maps but also road signs and lane information, which assists the driver in driving.

従来、ある目的地へ到達するためのルートをチェックするために使われる道路地図データは、道路によってどの地点とどの地点がつながっているかを示す道路ベクトル情報からなる記号地図として構成されていた。ところが、近年カーナビ装置が発達するにつれて、出発地から目的地までの経路情報の表示に限られず、ドライバーの利便性を高めるための多様な機能の実現が望まれており、ベクトル情報だけを示す道路地図では情報不足となってきている。このような変化を受けて、多くの道路地図が従来のベクトル地図から、詳細な道路地図へと更新されている。また、情報の有用性を高めるためには、道路地図は高頻度で更新される必要性がある。   Conventionally, road map data used for checking a route to reach a certain destination is configured as a symbol map including road vector information indicating which point is connected to which point by a road. However, with the recent development of car navigation systems, it is not limited to the display of route information from the starting point to the destination, and it is desired to realize various functions for improving the convenience of the driver. There is a lack of information on the map. In response to such changes, many road maps have been updated from conventional vector maps to detailed road maps. In order to increase the usefulness of information, the road map needs to be updated frequently.

従来、このような詳細な道路地図を作成するためには、既存のベクトル道路地図から道路の位置を読み出し、実際の車輌にカメラやセンサを積んでその道路を走行し、その走行中に得られた情報を元にして道路データを作成している。例えば、道路の車線や車線幅といった情報は、上記のようなカメラやセンサを積んだ車輌が道路上の各車線を走行することにより、詳細に把握することができるものである。特許文献1には、このような手法による道路地図作成システムが記載されている。   Conventionally, in order to create such a detailed road map, the position of the road is read from an existing vector road map, and the actual vehicle is loaded with cameras and sensors, and the road is traveled. The road data is created based on the information. For example, information such as road lanes and lane widths can be grasped in detail by a vehicle loaded with cameras and sensors as described above traveling in each lane on the road. Patent Document 1 describes a road map creation system using such a technique.

特開2002−318533号公報。JP 2002-318533 A. 平林雅英,「C言語による最新プログラム辞典 第2巻」,株式会社技術評論者,1992年11月27日,p.104−110Masahide Hirabayashi, “Latest Program Dictionary in C Language, Volume 2”, Technical Reviewer, November 27, 1992, p. 104-110 金子正美 外5名、「湿原植生分類のためのリモートセンシング手法の研究」Masami Kaneko and five others, “Study on remote sensing method for marsh vegetation classification” Zhao, T. and Nevatia, R. “Car detection in low resolution aerial image”Zhao, T. and Nevatia, R. “Car detection in low resolution aerial image”

しかしながら、上記の従来技術によって詳細な道路データを作成するためには、詳細道路地図を作成/更新するために、地図上に存在する全ての道路を実際に車輌で走行する必要がある。これには、走行及び測定を行うための膨大なコストがかかる上に、全ての道路を網羅するために効率的に走行するルートを作成するスケジューリング(しかもこれは更新前の不完全な道路情報から行わなければならない)は非常に煩雑であり、さらには混雑したり通行料がかかったりする道路に対しては余計な時間的・経済的コストがかかってしまう。   However, in order to create detailed road data using the above-described conventional technology, it is necessary to actually travel on all roads existing on the map in order to create / update the detailed road map. This entails enormous costs for running and measuring, and scheduling to create an efficient route to cover all roads (and this is based on incomplete road information before the update). (Which must be done) is very cumbersome and adds extra time and cost to roads that are congested or tolled.

本発明は、このような実情に鑑みてなされたものであり、地表画像データから自動的に道路部分の各車線を識別し車線数を決定することができるシステム及び方法を提供しようとするものである。   The present invention has been made in view of such circumstances, and intends to provide a system and method capable of automatically identifying each lane of a road portion and determining the number of lanes from ground image data. is there.

上記解決課題に鑑みて鋭意研究の結果、本発明者は、道路上の車線を区切る車線境界線が規則的な形状で規則的に配置されていることを利用して、人工衛星等から得られる地表画像から車線境界線を自動的に識別し、これにより道路の車線数を推定することができることに想到した。   As a result of earnest research in view of the above problem, the present inventor obtained from an artificial satellite or the like by utilizing the fact that the lane boundary lines that divide the lane on the road are regularly arranged in a regular shape. We have come up with the idea that lane boundaries can be automatically identified from the ground image and the number of road lanes can be estimated.

すなわち、本発明は、人工衛星又は航空機から地表を撮影した地表画像に含まれる道路の車線数を決定するシステムであって、少なくとも地表画像データ及び道路ベクトルデータを有しており、各道路ベクトルに対応する地表画像データに含まれる車線境界線を検出する車線境界線検出手段と、道路ベクトル毎に、前記検出された車線境界線の情報に基づいて、車線数を決定する車線数決定手段とを備えていることを特徴とする道路車線数決定システムを提供するものである。   That is, the present invention is a system for determining the number of road lanes included in a ground image obtained by photographing a ground surface from an artificial satellite or an aircraft, and has at least ground image data and road vector data. Lane boundary detection means for detecting a lane boundary included in the corresponding ground image data, and lane number determination means for determining the number of lanes for each road vector based on the information of the detected lane boundary. The present invention provides a road lane number determination system characterized by comprising the above.

本発明は、また、人工衛星又は航空機から地表を撮影した地表画像に含まれる道路の車線数を決定するシステムであって、少なくとも地表画像データ及び道路ベクトルデータを有しており、地表画像データにおいて車線境界線の検出を行わない除外領域を決定する除外領域決定手段と、各道路ベクトルに対応する地表画像データのうち、前記除外領域以外の領域に含まれる車線境界線を検出する車線境界線検出手段と、道路ベクトル毎に、前記検出された車線境界線の情報に基づいて、車線数を決定する車線数決定手段とを備えていることを特徴とする道路車線数決定システムを提供するものである。   The present invention is also a system for determining the number of road lanes included in a ground image obtained by photographing a ground surface from an artificial satellite or an aircraft, and has at least ground image data and road vector data. Exclusion region determination means for determining an exclusion region that does not detect a lane boundary, and lane boundary detection that detects a lane boundary included in a region other than the exclusion region of the ground image data corresponding to each road vector And a road lane number determination system, characterized in that the road lane number determination system includes a lane number determination means for determining the number of lanes based on information of the detected lane boundary line for each road vector. is there.

本発明は、また、人工衛星又は航空機から地表を撮影した地表画像に含まれる道路の車線数を決定するシステムであって、少なくとも地表画像データ及び道路ベクトルデータを有しており、地表画像データにおいて車線境界線の検出を行わない除外領域を決定する除外領域決定手段と、所定以上の長さを有する道路ベクトルに対応する地表画像データのうち、前記除外領域以外の領域に含まれる車線境界線を検出する車線境界線検出手段と、道路ベクトル毎に、前記検出された車線境界線の情報に基づいて、車線数を決定する車線数決定手段と、前記所定以上の長さを有さない道路ベクトルについて、当該道路ベクトル近傍の他の1以上の道路ベクトルについて決定された車線数に基づいて、当該道路ベクトルについての車線数を推定する車線数推定手段とを備えていることを特徴とする道路車線数決定システムを提供するものである。   The present invention is also a system for determining the number of road lanes included in a ground image obtained by photographing a ground surface from an artificial satellite or an aircraft, and has at least ground image data and road vector data. Exclusion region determination means for determining an exclusion region that does not detect a lane boundary line, and a lane boundary line included in a region other than the exclusion region in the ground image data corresponding to a road vector having a predetermined length or more. Lane boundary detecting means for detecting, lane number determining means for determining the number of lanes based on information of the detected lane boundary line for each road vector, and a road vector not having the predetermined length or more A vehicle that estimates the number of lanes for the road vector based on the number of lanes determined for one or more other road vectors in the vicinity of the road vector There is provided a road lane number determining system characterized by comprising a number estimating means.

本発明の道路車線数を決定するシステムにおいて、本発明の道路車線数決定システムは、地表画像データをHLS形式及びRGB形式の相互に変換する色形式変換手段をさらに備えており、前記除外領域決定手段及び前記車線境界線検出手段は、HLS形式及びRGB形式の地表画像データのうち一方又は両方を用いて除外領域決定及び車線境界線検出を行うことを特徴とする。   In the system for determining the number of road lanes according to the present invention, the system for determining the number of road lanes according to the present invention further comprises color format conversion means for converting ground image data into HLS format and RGB format, and the exclusion area determination The means and the lane boundary line detecting means perform exclusion area determination and lane boundary line detection using one or both of ground image data in HLS format and RGB format.

本発明の道路車線数を決定するシステムにおいて、前記車線境界線検出手段は、HLS形式の地表画像データの明度を2値化したデータを用いて、車線境界線検出を行うことを特徴とする。通常、車線境界線は目立つように道路面とは全く異なる色で着色されているため、両者の明度を比較すれば容易に区別することができる。   In the system for determining the number of road lanes according to the present invention, the lane boundary detection means performs lane boundary detection using data obtained by binarizing the brightness of HLS format ground image data. Usually, the lane boundary line is conspicuously colored in a completely different color from the road surface, so that it can be easily distinguished by comparing the brightness of both.

本発明の道路車線数を決定するシステムにおいて、前記車線境界線検出手段は、地表画像データのうち前記除外領域については、前記除外領域の周囲において検出された車線境界線の情報に基づいて、車線境界線の存在を推定することを特徴とする。通常、車線境界線は道路の縦方向及び横方向に一定の間隔を置いて規則的に配置されているので、地表画像の一部に車線境界線の検出ができなかった領域があったとしても、上記の規則性を考慮して除外領域に存在すべき車線境界線を補間することが可能である。   In the system for determining the number of road lanes according to the present invention, the lane boundary detection unit is configured to determine the lane boundary based on the information of the lane boundary detected around the exclusion area for the exclusion area in the ground image data. It is characterized by estimating the presence of a boundary line. Normally, lane boundaries are regularly arranged at regular intervals in the vertical and horizontal directions of the road, so even if there is an area where the lane boundary could not be detected in part of the ground image Considering the above regularity, it is possible to interpolate the lane boundary line that should exist in the exclusion region.

本発明の道路車線数を決定するシステムにおいて、前記車線境界線検出手段は、各道路ベクトルに対応する地表画像データを道路ベクトル長さ方向に沿って所定幅で分割し、それぞれの分割画像データが車線境界線を含んでいるかどうかを判定することにより、車線境界線を検出することを特徴とする。通常、車線境界線は、道路進行方向に細長い長方形状をしているので、このような画像分割によって検出が容易になる。分割幅は一般的な車線境界線と同程度の幅とするのが好ましい。   In the system for determining the number of road lanes according to the present invention, the lane boundary detection means divides ground image data corresponding to each road vector by a predetermined width along the road vector length direction, and each divided image data is A lane boundary line is detected by determining whether or not a lane boundary line is included. Usually, the lane boundary line has a long and narrow rectangular shape in the traveling direction of the road, so that the image division facilitates detection. It is preferable that the division width is approximately the same as a general lane boundary line.

本発明の道路車線数を決定するシステムにおいて、前記車線境界線検出手段は、前記分割画像データにおいて、他の領域とは画素値又は明度が異なる画像領域であって道路ベクトル長さ方向に所定以上の長さを有する領域を、車線境界線として検出することを特徴とする。通常、車線境界線は道路進行方向に一定の長さを有しているので、これに満たない長さの画像領域が車線境界線であるとは考えにくいためである。   In the system for determining the number of road lanes according to the present invention, the lane boundary detection means is an image area having a pixel value or brightness different from that of other areas in the divided image data, and is a predetermined value or more in the road vector length direction. A region having a length of 2 is detected as a lane boundary line. This is because the lane boundary line usually has a certain length in the road traveling direction, and it is difficult to consider that an image area having a length less than this is a lane boundary line.

本発明の道路車線数を決定するシステムにおいて、前記除外領域決定手段は、地表画像データに含まれる交差点領域、車輌、植生、中央分離帯のうち少なくとも1つを除外領域として決定することを特徴とする。これらの他にも対象物の外観的特徴に基づいて道路領域と区別できるものであれば、これを検出して除外領域とすることができる。   In the system for determining the number of road lanes according to the present invention, the exclusion area determination means determines at least one of an intersection area, a vehicle, a vegetation, and a median strip included in the ground image data as an exclusion area. To do. In addition to these, as long as it can be distinguished from the road area based on the appearance characteristics of the object, this can be detected and set as an excluded area.

本発明の道路車線数を決定するシステムにおいて、車線数推定手段は、前記所定以上の長さを有さない道路ベクトルについて、当該道路ベクトルそれぞれの端から連なる他の道路ベクトルのうち、車線数が決定されている道路ベクトルであってそれぞれの端に最も近い2つの道路ベクトルを検出し、当該道路ベクトルについての車線数は、検出した2つの道路ベクトルそれぞれについて決定されている車線数を上限下限とする範囲内の数値であると推定することを特徴とする。通常、交差点付近を除けば、道路上の車線数は著しく変化するものではないため、このような推定を行うことができる。   In the system for determining the number of road lanes according to the present invention, the lane number estimation means, for road vectors not having a predetermined length or more, of the other road vectors connected from the respective ends of the road vectors, Two road vectors that have been determined and are closest to the respective ends are detected, and the number of lanes for the road vector is determined by setting the number of lanes determined for each of the two detected road vectors as the upper and lower limits. It is estimated that it is a numerical value within the range. Normally, except for the vicinity of the intersection, the number of lanes on the road does not change significantly, and thus such estimation can be performed.

以上、説明したように、本発明によれば、多大な労力及びコストをかけて地図上に存在する全ての道路を実際に車輌で走行し測定する必要なく、人工衛星等から得られる地表画像データを用いて自動的に道路部分の各車線を識別し車線数を決定することができるシステム及び方法が提供される。
各々の道路ベクトルに対応する地表画像上の道路の車線数を認識可能である。
As described above, according to the present invention, surface image data obtained from an artificial satellite or the like without having to travel and measure all the roads existing on the map with a lot of labor and cost. There is provided a system and method that can automatically identify each lane of a road portion and determine the number of lanes using.
The number of road lanes on the ground image corresponding to each road vector can be recognized.

以下、添付図面を参照しながら、本発明の道路車線数を決定するシステム及び方法を実施するための最良の形態を詳細に説明する。図1〜図15は、本発明の実施の形態を例示する図であり、これらの図において、同一の符号を付した部分は同一物を表わし、基本的な構成及び動作は同様であるものとする。   Hereinafter, the best mode for carrying out the system and method for determining the number of road lanes of the present invention will be described in detail with reference to the accompanying drawings. 1 to 15 are diagrams illustrating embodiments of the present invention. In these drawings, the same reference numerals denote the same components, and the basic configuration and operation are the same. To do.

システム構成
図1は、本実施形態の道路車線数決定システムの構成を概略的に示す機能ブロック図である。図1において、本システムは、パソコン、ワークステーション等から構成される処理装置10と、メインメモリとして使用されるRAM(ランダムアクセスメモリ)、磁気ディスク記憶装置のような補助記憶装置などからなる記憶装置20と、入出力装置30とを備えている。
System Configuration FIG. 1 is a functional block diagram schematically showing the configuration of a road lane number determination system according to this embodiment. In FIG. 1, this system is a storage device comprising a processing device 10 composed of a personal computer, a workstation, etc., a RAM (Random Access Memory) used as a main memory, and an auxiliary storage device such as a magnetic disk storage device. 20 and an input / output device 30.

入出力装置30は、キーボード及びマウス等のポインティングデバイスを含む入力装置31と、CRTディスプレイ装置等の表示装置32と、プリンタ33とを備えている。入力装置31は、ユーザによるパラメータの入力やコマンドの起動等に用いられる。表示装置32及びプリンタ33は、本システムによる道路車線数の決定結果をユーザに提示するために用いられる。尚、表示装置としては、表示装置32及びプリンタ33のいずれか一方のみを備える構成としてもよい。   The input / output device 30 includes an input device 31 including a pointing device such as a keyboard and a mouse, a display device 32 such as a CRT display device, and a printer 33. The input device 31 is used for inputting parameters by the user, starting commands, and the like. The display device 32 and the printer 33 are used for presenting the determination result of the number of road lanes by this system to the user. The display device may include only one of the display device 32 and the printer 33.

記憶装置20には、地表画像データ21、道路ベクトルデータ22、HLSデータ23、植生データ24、探索除外領域データ25、部分道路車線データ26、道路車線データ27が記憶されている。これらのうち地表画像データ21及び道路ベクトルデータ22は、本システムによる処理実行前に予め記憶されているデータである。この地表画像データ21は、人工衛星画像又は航空画像として得られるものであり、RGB,IR(近赤外)の4バンドの多値画像のデータである。道路ベクトルデータ22は、道路の始点及び終点の位置と道路の幅とを示すデータを含んでおり、従来道路地図データとして利用可能であったものである。道路ベクトルデータ22の具体的なデータ構成例は、図2に示すとおりである。   The storage device 20 stores ground image data 21, road vector data 22, HLS data 23, vegetation data 24, search exclusion area data 25, partial road lane data 26, and road lane data 27. Of these, the ground image data 21 and the road vector data 22 are data stored in advance before the processing by the present system is executed. The surface image data 21 is obtained as an artificial satellite image or an aerial image, and is RGB, IR (near infrared) 4-band multi-value image data. The road vector data 22 includes data indicating the positions of the start and end points of the road and the width of the road, and can be used as conventional road map data. A specific data configuration example of the road vector data 22 is as shown in FIG.

記憶装置20に記憶されているHLSデータ23、植生データ24、探索除外領域データ25、部分道路車線データ26、道路車線データ27は、地表画像データ21及び道路ベクトルデータ22に対して所定の処理(後述)を行った結果、生成されるものである。   The HLS data 23, the vegetation data 24, the search exclusion area data 25, the partial road lane data 26, and the road lane data 27 stored in the storage device 20 are subjected to predetermined processing on the ground surface image data 21 and the road vector data 22 ( It is generated as a result of performing (described later).

道路車線数決定プログラム40は、色形式変換部100、探索除外領域検出部200、部分道路車線検出部300、未決定道路車線推定部400を含んでいる。これらは、記憶装置20に記憶されている各種データに対する処理を行うための手順を記載したプログラムモジュール等から構成されるものであり、それぞれの詳細な処理内容については、後述する。   The road lane number determination program 40 includes a color format conversion unit 100, a search exclusion area detection unit 200, a partial road lane detection unit 300, and an undecided road lane estimation unit 400. These are composed of a program module or the like that describes a procedure for performing processing on various data stored in the storage device 20, and details of each processing will be described later.

道路の車線数を決定する処理の詳細
次に、本システムにおいて地表画像に含まれる道路の車線数を決定する処理の詳細について説明する。現在、利用可能な地表画像の解像度は、最も高精度なものでも数十cmのオーダであり、一方、道路上の車線境界線は通常、幅が数十cmで長さが数m程度の大きさである。したがって、多くの場合、地表画像の解像度は車線境界線を認識するのに臨界的な解像度である。そこで、本システムでは、地表画像から微細な車線境界線を検出しやすいように、道路上の車線境界線に特有の形状、配置等を考慮して、適切な検出処理を行うことを特徴としている。
Details of Processing for Determining the Number of Road Lanes Next, details of the processing for determining the number of road lanes included in the ground image in this system will be described. Currently, the resolution of available ground images is on the order of tens of centimeters, even with the highest accuracy, while lane boundaries on roads are usually as large as several tens of centimeters in width and several meters in length. That's it. Therefore, in many cases, the resolution of the ground image is a critical resolution for recognizing the lane boundary. Therefore, this system is characterized in that appropriate detection processing is performed in consideration of the shape, arrangement, etc. peculiar to the lane boundary on the road so that the fine lane boundary can be easily detected from the ground image. .

本システムにおいて、道路車線数決定プログラム40が起動されると、色形式変換部100、探索除外領域検出部200、部分道路車線検出部300、未決定道路車線推定部400の順に処理が実行される。以下、それぞれによる処理の詳細を述べる。   In this system, when the road lane number determination program 40 is started, the color format conversion unit 100, the search exclusion area detection unit 200, the partial road lane detection unit 300, and the undecided road lane estimation unit 400 are executed in this order. . The details of the processing by each will be described below.

(1)色形式変換処理
色形式変換部100は、地表画像データ21を読み込み、色形式変換の変換を行う。人工衛星等により撮像された地表画像データ21は、通常、RGB,IRの4バンドの情報を持っているが、色形式変換部100は、このRGBカラー画像データを、色相(H:Hue)、明度(L:Lightness)、彩度(S:Saturation)からなるHLS空間の画像データに変換する。図3(a)にRGBのカラーモデルを示す。RGB空間とHLS空間とを対応させるモデルとしては、図3(b)に示す双六角錐カラーモデルを用いる。ここで、Hは色相角度であり、0〜360度の値で指定する。赤が0度、黄が60度、緑が120度、水色が180度、青が240度、紫が300度、そして360度で再び赤に戻る。Lは明度であり、0〜1の実数値で指定する。0側が暗く、1側が明るい。0.5が中間である。0〜0.5側は黒絵具を加えた状態、0.5〜1側は白絵具を加えた状態、0.5はどちらも加えない状態である。また、明度値はカラー画像の明るさの成分を表しており、カラー画像情報から生成されたモノクロ画像情報と一致する。尚、RGB→HLS変換、及びHLS→RGB変換の詳細なアルゴリズムについては、非特許文献1等を参照されたい。色形式変換部100により変換したHLS画像データは、HLSデータ23として記憶装置20に格納される。
(1) Color Format Conversion Processing The color format conversion unit 100 reads the ground image data 21 and performs color format conversion conversion. The surface image data 21 captured by an artificial satellite or the like usually has information of four bands of RGB and IR, but the color format conversion unit 100 converts the RGB color image data into a hue (H: Hue), The image data is converted into HLS space image data composed of lightness (L: Lightness) and saturation (S: Saturation). FIG. 3A shows an RGB color model. As a model for associating the RGB space with the HLS space, a bihexagonal pyramid color model shown in FIG. 3B is used. Here, H is a hue angle, and is specified by a value of 0 to 360 degrees. Red is 0 degrees, yellow is 60 degrees, green is 120 degrees, light blue is 180 degrees, blue is 240 degrees, purple is 300 degrees, and it returns to red again at 360 degrees. L is lightness, and is specified by a real value between 0 and 1. The 0 side is dark and the 1 side is bright. 0.5 is intermediate. The 0 to 0.5 side is a state where black paint is added, the 0.5 to 1 side is a state where white paint is added, and 0.5 is a state where neither is added. The lightness value represents the brightness component of the color image and matches the monochrome image information generated from the color image information. For detailed algorithms of RGB → HLS conversion and HLS → RGB conversion, see Non-Patent Document 1 and the like. The HLS image data converted by the color format conversion unit 100 is stored in the storage device 20 as HLS data 23.

以降の処理で地表画像を扱う場合には、地表画像データ21、HLSデータ23のいずれかを適宜用いるものとする。各処理においていずれの形式のデータを利用するかは、検出精度や計算量の観点から決めればよい。   When the ground image is handled in the subsequent processing, either the ground surface image data 21 or the HLS data 23 is appropriately used. Which format data is used in each process may be determined from the viewpoint of detection accuracy and calculation amount.

また、色形式変換部100は、地表画像データ21のR及びIRの値から植生指数を計算し、植生データ24を作成する。植生データ24は、地表画像の道路が樹木等に覆われている部分を示すデータである。ここで、植生指数とは、植生のスペクトル反射特性から植生の量や活性度を表すために考案された指数である。これまでに種々の植生指数が提案されているが、本システムでは、最も一般的に用いられているNDVI(Normalized Difference Vegetation Index)(非特許文献2参照)を使用する。NDVIは、次式で定義される。   Further, the color format conversion unit 100 calculates the vegetation index from the R and IR values of the ground image data 21, and creates the vegetation data 24. The vegetation data 24 is data indicating a portion where the road of the ground image is covered with trees or the like. Here, the vegetation index is an index designed to represent the amount and activity of vegetation from the spectral reflection characteristics of vegetation. Various vegetation indices have been proposed so far, but this system uses the most commonly used NDVI (Normalized Difference Vegetation Index) (see Non-Patent Document 2). NDVI is defined by the following equation.

Figure 2007128141
このようにして計算された植生指数NDVIが植生データ24となる。
Figure 2007128141
The vegetation index NDVI calculated in this way becomes the vegetation data 24.

(2)探索除外領域検出処理
次に、探索除外領域検出部200は、地表画像中の道路部分においてノイズになる領域を計算し、当該領域を示す探索除外領域データ25を生成し記憶装置20に格納する。図4は、探索除外領域検出部200による処理の流れを示すフローチャートである。図4に示すように、探索除外領域検出部200は、交差点領域検出処理201、車輌ノイズ検出処理202、植生ノイズ検出処理203、探索除外領域決定処理204の各サブルーチンを順に実行する。以下、これらの処理の詳細を説明する。
(2) Search Exclusion Area Detection Processing Next, the search exclusion area detection unit 200 calculates an area that becomes noise in the road portion in the ground image, generates search exclusion area data 25 indicating the area, and stores it in the storage device 20. Store. FIG. 4 is a flowchart showing the flow of processing by the search exclusion area detection unit 200. As illustrated in FIG. 4, the search exclusion area detection unit 200 sequentially executes each subroutine of an intersection area detection process 201, a vehicle noise detection process 202, a vegetation noise detection process 203, and a search exclusion area determination process 204. Details of these processes will be described below.

交差点領域検出処理201では、地表画像中の道路の交差点である領域を検出する。この交差点領域は、後述する探索除外領域決定処理204において、探索除外領域とされるべきものである。交差点付近では車線が交わるため通常の道路とは道路のパターンが異なっており、後述する部分道路車線検出部300により部分道路の車線検出を行うためには、このような画像データは除外しておく必要があるからである。例えば、図5に示すように、地表画像中の交差点領域と他の道路部分とを2値化した画像データを生成し一時的に格納しておけばよい。   In the intersection area detection process 201, an area that is an intersection of roads in the ground image is detected. This intersection area is to be a search exclusion area in the search exclusion area determination processing 204 described later. Since the lanes intersect at the intersection, the road pattern is different from that of normal roads. In order to detect the lanes of the partial roads by the partial road lane detector 300 described later, such image data is excluded. It is necessary. For example, as shown in FIG. 5, image data obtained by binarizing an intersection area and another road portion in the ground image may be generated and temporarily stored.

車輌ノイズ検出処理202では、地表画像の道路部分における車輌が占める領域を検出する(この検出方法については、非特許文献3参照)。この車輌が占める領域は、道路上の車線境界線のパターンを検出する際にノイズとなるため、後述する探索除外領域決定処理204において、探索除外領域とされるべきものである。例えば、図6(d)に示すように、地表画像中の道路部分における車輌が占める領域と他の道路部分とを2値化した画像データを生成し一時的に格納しておけばよい。   In the vehicle noise detection process 202, an area occupied by the vehicle in the road portion of the ground image is detected (refer to Non-Patent Document 3 for this detection method). The area occupied by this vehicle becomes noise when detecting the pattern of the lane boundary line on the road, and therefore should be set as the search exclusion area in the search exclusion area determination processing 204 described later. For example, as shown in FIG. 6D, image data obtained by binarizing an area occupied by vehicles in a road portion in the ground image and other road portions may be generated and temporarily stored.

植生ノイズ検出処理203では、地表画像中の道路部分における植生部分を検出する。この処理は、色形式変換部100により既に生成されている植生データ24を用いて行うことができる。道路上に存在する植生には、例えば、中央分離帯の植込みや、道路に上から覆い被さっている街路樹などがあるが、これらは車線に関する情報を持たないノイズであるため、後述する探索除外領域決定処理204において、探索除外領域とされるべきものである。例えば、図6(c)に示すように、地表画像中の道路部分における植生部分と他の道路部分とを2値化した画像データを生成し一時的に格納しておけばよい。   In the vegetation noise detection processing 203, a vegetation part in a road part in the ground image is detected. This processing can be performed using the vegetation data 24 already generated by the color format conversion unit 100. Vegetation existing on the road includes, for example, mediation of median strips and roadside trees that cover the road from above. In the area determination process 204, it should be a search exclusion area. For example, as shown in FIG. 6C, image data obtained by binarizing a vegetation portion and another road portion in a road portion in the ground image may be generated and temporarily stored.

探索除外領域決定処理204では、上記の各処理201〜203の結果に基づいて、地表画像中から除外されるべき交差点領域、車輌ノイズ、植生ノイズを探索除外領域データ25として記憶装置20に格納する。例えば、上記各処理により生成した2値画像データの論理和をとって、探索除外領域とすることができる。図6は、地表画像中の道路部分の画像(a)から各種ノイズ(c)〜(e)を検出する例を示す図である。上記以外にも、例えば、道路の中央付近に他の道路部分とは色又は明度がことなる一定幅の領域が検出される場合には、これを中央分離帯と判定して、探索除外領域とすることもできる。   In the search exclusion area determination process 204, the intersection area, vehicle noise, and vegetation noise that should be excluded from the ground image are stored in the storage device 20 as the search exclusion area data 25 based on the results of the above-described processes 201 to 203. . For example, a logical sum of the binary image data generated by the above processes can be taken as a search exclusion area. FIG. 6 is a diagram illustrating an example in which various noises (c) to (e) are detected from the image (a) of the road portion in the ground image. In addition to the above, for example, when an area with a certain width that is different in color or brightness from other road parts is detected in the vicinity of the center of the road, this is determined as a median strip, You can also

(3)部分道路車線検出処理
次に、部分道路車線検出部300は、地表画像に含まれる道路部分について道路ベクトル単位で車線境界線を検出し車線数を推定する処理を行う。図7は、部分道路車線検出部300による処理の流れを示すフローチャートである。図7において、部分道路車線検出部300は、まず、未処理の道路ベクトル1つをピックアップし(ステップ301)、その道路ベクトルの長さを、予め設定してある道路ベクトルの最低長と比較する(ステップ302)。道路ベクトルの長さが最低長よりも短ければ、処理に必要な情報が不足していると判断して、その道路ベクトルについては未決定道路ベクトルとして一時記憶する(ステップ310)。未決定道路ベクトルについては、後述する未決定道路車線推定部400で車線数の推定を行うことができる。
(3) Partial Road Lane Detection Processing Next, the partial road lane detection unit 300 performs processing for detecting the lane boundary line for each road vector and estimating the number of lanes for the road portion included in the ground image. FIG. 7 is a flowchart showing the flow of processing by the partial road lane detection unit 300. In FIG. 7, the partial road lane detecting unit 300 first picks up one unprocessed road vector (step 301), and compares the length of the road vector with the preset minimum length of the road vector. (Step 302). If the length of the road vector is shorter than the minimum length, it is determined that information necessary for processing is insufficient, and the road vector is temporarily stored as an undetermined road vector (step 310). With respect to the undetermined road vector, the number of lanes can be estimated by an undetermined road lane estimation unit 400 described later.

長さが十分である道路ベクトルについては、これに対応する地表画像の道路部分を、道路ベクトル長さ方向に平行で予め設定してある車線境界線程度の幅を有する列に分割する(ステップ303)。分割した列を一ずつ選択し(ステップ304)、明度の2値化を行う(ステップ305)。但し、列内に含まれる探索除外領域はノイズとして2値化対象から除外する。2値化された列の画像の中に、車線境界線が含まれているかどうか判定を行う(ステップ306)。このステップ304〜306の処理を分割した各列に対して行う(ステップ307)。   For a road vector having a sufficient length, the road portion of the ground image corresponding to the road vector is divided into columns having a width of a preset lane boundary parallel to the road vector length direction (step 303). ). The divided columns are selected one by one (step 304), and the brightness is binarized (step 305). However, the search exclusion region included in the column is excluded from the binarization target as noise. It is determined whether or not a lane boundary line is included in the binarized column image (step 306). The processes in steps 304 to 306 are performed on each divided column (step 307).

一般的に、道路面と車線境界線とは明度が異なるため、道路画像の2値化を行うことにより路面と車線境界線とを区別できる。画像の2値化には種々の周知技術が適用可能であるが、本システムでは判別分析法を使用する。判別分析法は、ある値ftにて、対象としている画像全体の明度のヒストグラムを2つのクラス(級)に分けた場合、級間分散÷(クラス1の級内分散+クラス2の級内分散)の算出結果が最大となるときのftを閾値として決定する手法である。   In general, since the road surface and the lane boundary line have different brightness, the road surface and the lane boundary line can be distinguished by binarizing the road image. Various well-known techniques can be applied to the binarization of the image, but this system uses a discriminant analysis method. In the discriminant analysis method, when the histogram of the brightness of the entire target image is divided into two classes (classes) at a certain value ft, the variance between classes / (class variance within class 1 + class variance within class 2) ) Is determined as the threshold value when ft is the maximum.

画像に対して2値化を行う場合、画像全体に対して行うことが多いが、画像の部分ごとに対象物の明度の分布が異なると、適切に2値化ができない。例えば、アスファルトの道路とコンクリートの道路とでは明度の分布が異なるため、適切な明度の閾値が異なるし、車線境界線も色が異なれば適切な明度の閾値が異なってくる。そこで、本処理では、色の異なる道路面や車線境界線が混在する画像を判定対象としないために、道路画像をラインに平行な車線境界線程度の幅の列に区切ってから、各列に対して2値化を行い、車線境界線判定を行うこととしている。尚、この手法により、車線境界線を含んでいる列については、図8に示すように、明度のヒストグラムが2つのクラスにはっきりと分かれるため、画像の2値化により車線境界線と路面とを容易に判別することができる。   When binarization is performed on an image, it is often performed on the entire image. However, if the distribution of the brightness of an object is different for each part of the image, binarization cannot be performed appropriately. For example, since the distribution of lightness is different between an asphalt road and a concrete road, the appropriate lightness threshold value is different, and if the lane boundary line is also different in color, the appropriate lightness threshold value is different. Therefore, in this processing, in order not to determine images with mixed road surfaces and lane boundary lines of different colors, the road image is divided into columns with a width of about the lane boundary line parallel to the lines, and On the other hand, binarization is performed and lane boundary determination is performed. As shown in FIG. 8, the brightness histogram is clearly divided into two classes by this method, as shown in FIG. 8, so the lane boundary line and the road surface are separated by binarizing the image. It can be easily distinguished.

図9は、ステップ306における車線境界線判定処理の詳細を示すフローチャートである。これまでの処理により、上記の分割した列の2値化画像は、図6(b)に示すように、明領域、暗領域、探索除外領域の3種類の領域に分類できるようになっている。図9において、部分道路車線検出部300は、列の画像から明領域を1つずつ選択し順にチェックを行う(ステップ501)。選択した明領域が探索除外領域と隣接しているかどうかを判定し(ステップ502)、隣接している場合には、当該領域は車線境界線であるかかどうか判定できない未決定明領域とする(ステップ506)。選択した明領域が探索除外領域と隣接していない場合には、その明領域の長さをチェックする(ステップ503)。明領域の長さが、予め設定してある車線境界線であるための最低長さ以上であるかどうかを判定する(ステップ503)。明領域の長さが上記の最低長さ以上である場合には、その明領域を車線境界線として一時記憶し(ステップ504)、明領域の長さが上記の最低長さに満たない場合には、その明領域を非車線境界線として一時記憶する(ステップ505)。以上のステップ501〜506における処理を列の画像に含まれる全ての明領域に対して行う(ステップ507)。こうして、ステップ306における車線境界線判定処理では、列の画像に含まれる明領域が車線境界線、非車線境界線、未決定明領域の3種類のいずれかに分類される。   FIG. 9 is a flowchart showing details of the lane boundary determination process in step 306. As a result of the processing so far, the binarized images of the divided columns can be classified into three types of regions, that is, a bright region, a dark region, and a search exclusion region, as shown in FIG. 6B. . In FIG. 9, the partial road lane detection unit 300 selects bright areas one by one from the row image and sequentially checks them (Step 501). It is determined whether or not the selected bright area is adjacent to the search exclusion area (step 502). If the selected bright area is adjacent to the search exclusion area, it is determined as an undetermined bright area where it cannot be determined whether or not the area is a lane boundary line ( Step 506). If the selected bright area is not adjacent to the search exclusion area, the length of the bright area is checked (step 503). It is determined whether or not the length of the bright region is equal to or greater than the minimum length for the preset lane boundary line (step 503). If the length of the bright area is equal to or greater than the above minimum length, the bright area is temporarily stored as a lane boundary line (step 504), and the length of the bright area is less than the above minimum length. Temporarily stores the bright area as a non-lane boundary line (step 505). The processing in the above steps 501 to 506 is performed for all the bright regions included in the row image (step 507). Thus, in the lane boundary determination process in step 306, the bright areas included in the column image are classified into one of three types: lane boundary lines, non-lane boundary lines, and undecided bright areas.

再び、図7において、選択されている道路ベクトルの対応画像の全列に対して上記の車線境界線判定処理を行った後、部分道路車線検出部300は、上記の未決定明領域に対して推定を行う処理をする(ステップ308)。ここで、例として、ステップ306における車線境界線判定処理によって得られた図11に示す判定結果において、未決定明領域の推定を行う場合について説明する。尚、図11において、道路ベクトルの長さ方向をY方向、これに垂直な方向をX方向としている。   In FIG. 7 again, after performing the above-described lane boundary determination processing for all the columns of the corresponding image of the selected road vector, the partial road lane detection unit 300 performs the above-described undecided bright region. Processing for estimating is performed (step 308). Here, as an example, a case where an undetermined bright region is estimated in the determination result shown in FIG. 11 obtained by the lane boundary determination processing in step 306 will be described. In FIG. 11, the length direction of the road vector is the Y direction, and the direction perpendicular thereto is the X direction.

図10は、ステップ308における未決定明領域推定処理の詳細を示すフローチャートである。図10において、部分道路車線検出部300は、選択されている道路ベクトルの対応画像における未決定明領域を一つ選択し(ステップ601)、この未決定明領域と同一進行方向の道路中(道路ベクトル対応画像のうちセンターラインの同一側にある領域)で、この未決定明領域とX方向位置がほぼ同一な領域及びY方向位置がほぼ同一な領域において、所定数以上の車線境界線が存在するかどうかを判定する(ステップ602)。所定数以上の車線境界線が存在する場合には、この未決定明領域は車線境界線として一時記憶する(ステップ603)。所定数以上の車線境界線が存在しない場合には、この未決定明領域は非車線境界線として一時記憶する(ステップ604)。以上のステップ601〜604の処理を、選択されている道路ベクトルの対応画像に含まれる全ての未決定明領域に対して行う(ステップ605)。この未決定明領域推定処理は、図6(a)に示すように、車線境界線は、センターラインの同一側にある同じ進行方向の道路中では車線境界線が規則的に配置されていることが多いことを利用している。これにより、道路画像中に車輌や植込みなどのノイズが存在していても、車線境界線の存在を周囲の画像領域に基づいて推定することができる。未決定明領域推定処理による推定結果の例を図12に示す。   FIG. 10 is a flowchart showing details of the undetermined bright region estimation process in step 308. In FIG. 10, the partial road lane detecting unit 300 selects one undecided bright area in the corresponding image of the selected road vector (step 601), and in the road in the same traveling direction as this undecided bright area (road There are more than a certain number of lane boundaries in the vector-corresponding image (the area on the same side of the center line) in the area where the undecided bright area is almost the same in the X direction and the area where the Y direction is almost the same It is determined whether or not to perform (step 602). If there are more than a predetermined number of lane boundary lines, this undecided bright area is temporarily stored as a lane boundary line (step 603). If a predetermined number or more of lane boundary lines do not exist, this undecided bright area is temporarily stored as a non-lane boundary line (step 604). The processes in steps 601 to 604 described above are performed on all the undecided bright areas included in the corresponding image of the selected road vector (step 605). In this undecided bright region estimation process, as shown in FIG. 6A, the lane boundary line is regularly arranged on the same traveling direction road on the same side of the center line. We use that there are many. Thereby, even if there is a noise such as a vehicle or an implantation in the road image, the presence of the lane boundary line can be estimated based on the surrounding image area. An example of the estimation result by the undetermined bright region estimation process is shown in FIG.

再び、図7において、選択されている道路ベクトルの対応画像のセンターラインを隔てた両側の道路それぞれについて、検出された車線境界線の位置情報に基づいて車線数を計数し、部分道路車線データ26として記憶装置20に格納する(ステップ309)。部分道路車線検出部300は、上記のステップ301〜310の処理を全ての道路ベクトルの対応画像について行う(ステップ311)。   Again, in FIG. 7, the number of lanes is counted based on the detected lane boundary position information for each of the roads on both sides separated by the center line of the image corresponding to the selected road vector, and the partial road lane data 26 Is stored in the storage device 20 (step 309). The partial road lane detection unit 300 performs the above-described processing of steps 301 to 310 for the corresponding images of all road vectors (step 311).

(4)未決定道路車線推定処理
次に、未決定道路車線推定部400は、部分道路車線検出部300によって未決定道路ベクトルとされた道路ベクトルの対応画像の車線数を推定する。図13A及び図13Bは、未決定道路車線推定部による処理の流れを示すフローチャートである。この処理を図14に示す道路カーブ部分の道路ベクトル及びベクトル領域の例を参照しながら説明する。図14に示すように、カーブした道路は、複数の短い道路ベクトルが連結したものに近似して表現されている。ここで、道路ベクトルVa,Vdは車線数を決定済みであるが、ベクトルVb,Vc,Vxは道路ベクトルが最低長よりも短いため、部分道路車線検出部300により未決定道路ベクトルとされたものである。カーブした道路では、このように未決定道路ベクトルが発生しやすいが、未決定道路車線推定部400によって未決定道路ベクトルの車線数をも推定することが可能である。尚、図13に示すフローチャートでは、道路ベクトルVxの車線数推定を例に挙げている。
(4) Undecided Road Lane Estimation Processing Next, the undecided road lane estimation unit 400 estimates the number of lanes in the corresponding image of the road vector determined as the undecided road vector by the partial road lane detection unit 300. 13A and 13B are flowcharts showing the flow of processing by the undetermined road lane estimation unit. This process will be described with reference to examples of road vectors and vector areas of the road curve portion shown in FIG. As shown in FIG. 14, the curved road is expressed by approximating a combination of a plurality of short road vectors. Here, the road vectors Va and Vd have already determined the number of lanes, but the vectors Vb, Vc and Vx have been determined as undecided road vectors by the partial road lane detector 300 because the road vectors are shorter than the minimum length. It is. An undecided road vector is likely to be generated on a curved road in this way, but the number of lanes of the undecided road vector can also be estimated by the undecided road lane estimating unit 400. In the flowchart shown in FIG. 13, the estimation of the number of lanes of the road vector Vx is taken as an example.

図13Aにおいて、未決定道路車線推定部400は、まず、1つの未決定道路ベクトルVxを選択し(ステップ401)、Vxの始点から連結している他の道路ベクトルを、車線数決定済みの道路ベクトルが見つかるまで順に(所定本数先まで)チェックしていく(ステップ402)。図14に示す例では、Vaがこれに該当するので、変数NsにVaの車線数を格納する(ステップ404)。尚、未決定道路ベクトルVxから所定本数の範囲内に車線数決定済みの道路ベクトルが見つからない場合には(ステップ403)、Nsにデータ無しと格納する(ステップ405)。同様に、Vxの終点から連結している他の道路ベクトルを、車線数決定済みの道路ベクトルが見つかるまで順にチェックしていく(ステップ406)。図14に示す例では、Vdがこれに該当するので、変数NeにVdの車線数を格納する(ステップ408)。尚、車線数決定済みの道路ベクトルが見つからないと判断した場合には(ステップ407)、Neにデータ無しと格納する(ステップ409)。   In FIG. 13A, the undetermined road lane estimating unit 400 first selects one undetermined road vector Vx (step 401), and determines the other road vectors connected from the starting point of Vx as roads for which the number of lanes has been determined. The check is performed in order until a vector is found (up to a predetermined number) (step 402). In the example shown in FIG. 14, Va corresponds to this, so the number of lanes of Va is stored in the variable Ns (step 404). Note that if no road vector for which the number of lanes has been determined is found within a predetermined number of ranges from the undetermined road vector Vx (step 403), no data is stored in Ns (step 405). Similarly, other road vectors connected from the end point of Vx are checked in order until a road vector for which the number of lanes has been determined is found (step 406). In the example shown in FIG. 14, Vd corresponds to this, so the number of lanes of Vd is stored in the variable Ne (step 408). If it is determined that no road vector for which the number of lanes has been determined is found (step 407), Ne is stored as no data (step 409).

続いて図13Bにおいて、未決定道路車線推定部400は、Ns,Neのうちいずれか一方のみに車線数が格納されている場合には、その車線数を道路ベクトルVxの車線数として記憶装置20の部分道路車線データに格納し、Ns,Neのいずれも車線数が格納されていない場合には、Vxは車線数データ無しとして記憶装置20の部分道路車線データに格納する(ステップ410〜415)。また、Ns,Neの両方に車線数が格納されている場合には、両車線数が同じであるかどうかを判定し(ステップ416)、同じである場合には、その車線数を道路ベクトルVxの車線数として記憶装置20の部分道路車線データに格納する(ステップ417)。両データが同じでない場合には、道路ベクトルVxの車線数はNs本〜Ne本の間であるとして、記憶装置20の部分道路車線データに格納する(ステップ418)。   Subsequently, in FIG. 13B, when the number of lanes is stored in only one of Ns and Ne, the undecided road lane estimation unit 400 stores the number of lanes as the number of lanes of the road vector Vx. If neither Ns nor Ne is stored in the partial road lane data, Vx is stored in the partial road lane data of the storage device 20 as no lane number data (steps 410 to 415). . If the number of lanes is stored in both Ns and Ne, it is determined whether or not the number of lanes is the same (step 416). If the number of lanes is the same, the number of lanes is determined as the road vector Vx. Is stored in the partial road lane data of the storage device 20 (step 417). If the two data are not the same, the number of lanes of the road vector Vx is assumed to be between Ns and Ne, and is stored in the partial road lane data of the storage device 20 (step 418).

以上の処理を、全ての未決定道路ベクトルに対して行う(ステップ419)。このように、部分道路車線検出部300によって車線数が決定できなかった道路ベクトルとされた道路ベクトルについても、道路中の車線数が急激に変化することは少ないとの考えに基づき、近傍の道路ベクトルについて決定された車線数から当該未決定道路ベクトルの車線数の推定を行う。図15は、上記した未決定道路ベクトルの車線数推定に用いられる決定表(a)と、これによる実際の車線数の推定結果(b)とを示す図である。   The above processing is performed for all undecided road vectors (step 419). As described above, based on the idea that the number of lanes in the road is unlikely to change abruptly with respect to the road vector for which the number of lanes could not be determined by the partial road lane detection unit 300, The number of lanes of the undecided road vector is estimated from the number of lanes determined for the vector. FIG. 15 is a diagram showing a decision table (a) used for estimating the number of lanes of the above-mentioned undecided road vector, and an estimation result (b) of the actual number of lanes thereby.

以上の処理を経て得られた地表画像の各道路の車線数を、記憶装置20の道路車線データ27として格納し、処理装置10の道路車線数決定プログラム40は処理を終了する。道路車線データ27のデータ構成例を図16に示す。この道路車線データ27を、地表画像データとともに用いることにより、道路車線情報を提供可能な地図表示システム、カーナビゲーションシステム、道路情報提供システムなどを構成することができる。   The number of lanes of each road in the surface image obtained through the above processing is stored as road lane data 27 of the storage device 20, and the road lane number determination program 40 of the processing device 10 ends the processing. An example of the data structure of the road lane data 27 is shown in FIG. By using the road lane data 27 together with the ground image data, a map display system, a car navigation system, a road information provision system, and the like that can provide road lane information can be configured.

以上、本発明の道路車線数を決定するシステム及び方法について、具体的な実施の形態を示して説明したが、本発明はこれらに限定されるものではない。当業者であれば、本発明の要旨を逸脱しない範囲内において、上記各実施形態又は他の実施形態にかかる発明の構成及び機能に様々な変更・改良を加えることが可能である。   As mentioned above, although the specific embodiment was shown and demonstrated about the system and method of determining the number of road lanes of this invention, this invention is not limited to these. A person skilled in the art can make various changes and improvements to the configurations and functions of the invention according to the above-described embodiments or other embodiments without departing from the gist of the present invention.

本発明の道路車線数決定システムの構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the road lane number determination system of this invention. 図1に示す記憶装置に記憶されている道路ベクトルデータのデータ構成例を示す図である。It is a figure which shows the data structural example of the road vector data memorize | stored in the memory | storage device shown in FIG. RGBのカラーモデルとHLSのカラーモデルを示す図である。It is a figure which shows the color model of RGB and the color model of HLS. 探索除外領域検出部による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process by the search exclusion area | region detection part. 地表画像中の交差点領域を検出した結果データを示す図である。It is a figure which shows the result data which detected the intersection area | region in a ground surface image. 地表画像中の道路部分の画像(a)から各種ノイズ(c)〜(e)を検出する例を示す図である。It is a figure which shows the example which detects various noise (c)-(e) from the image (a) of the road part in a ground surface image. 部分道路車線検出部による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process by a partial road lane detection part. 車線境界線を含んでいる列画像の明度ヒストグラムを例示する図である。It is a figure which illustrates the brightness histogram of the row | line | column image containing a lane boundary line. 図7のステップ306における車線境界線判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the lane boundary determination process in step 306 of FIG. 図7のステップ308における未決定明領域推定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the undetermined bright area estimation process in step 308 of FIG. 図7のステップ306における車線境界線判定処理によって得られた判定結果の例を示す図である。It is a figure which shows the example of the determination result obtained by the lane boundary determination process in step 306 of FIG. 図7のステップ308における未決定明領域推定処理による推定結果の例を示す図である。It is a figure which shows the example of the estimation result by the undetermined bright area estimation process in step 308 of FIG. 未決定道路車線推定部による処理の流れの前半を示すフローチャートである。It is a flowchart which shows the first half of the flow of the process by an undetermined road lane estimation part. 未決定道路車線推定部による処理の流れの後半を示すフローチャートである。It is a flowchart which shows the second half of the flow of the process by an undetermined road lane estimation part. 道路カーブ部分の道路ベクトル及びベクトル領域の例を示す図である。It is a figure which shows the example of the road vector and vector area | region of a road curve part. 未決定道路車線推定処理における未決定道路ベクトルの車線数推定に用いられる決定表(a)と、これによる実際の車線数の推定結果(b)とを示す図である。It is a figure which shows the decision table (a) used for the lane number estimation of the undetermined road vector in an undetermined road lane estimation process, and the estimation result (b) of the actual lane number by this. 図1に示す記憶装置20に格納される道路車線データのデータ構成例を示す図であるIt is a figure which shows the data structural example of the road lane data stored in the memory | storage device 20 shown in FIG.

符号の説明Explanation of symbols

10 処理装置
20 記憶装置
21 地表画像データ
22 道路ベクトルデータ
23 HLSデータ
24 植生データ
25 探索除外領域データ
26 部分道路車線データ
27 道路車線データ
30 入出力装置
31 入力装置
32 表示装置
33 プリンタ
40 道路車線数決定プログラム
100 色形式変換部
200 探索除外領域検出部
300 部分道路車線検出部
400 未決定道路車線推定部
Vx, Vb, Vc 未決定の道路ベクトル
Va, Vd 決定済の道路ベクトル
Ns 連結した道路ベクトルの始点側の道路ベクトルの車線数情報格納用変数
Ne 連結した道路ベクトルの終点側の道路ベクトルの車線数情報格納用変数
10 Processing equipment
20 Storage device
21 Ground image data
22 Road vector data
23 HLS data
24 Vegetation data
25 Search exclusion area data
26 Partial road lane data
27 Road lane data
30 I / O devices
31 Input device
32 display devices
33 Printer
40 Road Lane Number Determination Program
100 color format converter
200 Search exclusion area detector
300 Partial road lane detector
400 Undecided road lane estimation part
Vx, Vb, Vc undecided road vector
Va, Vd determined road vector
Ns Variable for storing the lane number information of the road vector on the start side of the connected road vector
Ne Variable for storing the lane number information of the road vector on the end point side of the connected road vector

Claims (10)

人工衛星又は航空機から地表を撮影した地表画像に含まれる道路の車線数を決定するシステムであって、
少なくとも地表画像データ及び道路ベクトルデータを有しており、
各道路ベクトルに対応する地表画像データに含まれる車線境界線を検出する車線境界線検出手段と、
道路ベクトル毎に、前記検出された車線境界線の情報に基づいて、車線数を決定する車線数決定手段とを備えていることを特徴とする道路車線数決定システム。
A system for determining the number of road lanes included in a ground image obtained by photographing a ground surface from an artificial satellite or an aircraft,
Have at least ground image data and road vector data,
Lane boundary detection means for detecting a lane boundary included in the ground image data corresponding to each road vector;
A road lane number determination system comprising: a lane number determination unit that determines the number of lanes based on the detected lane boundary line information for each road vector.
人工衛星又は航空機から地表を撮影した地表画像に含まれる道路の車線数を決定するシステムであって、
少なくとも地表画像データ及び道路ベクトルデータを有しており、
地表画像データにおいて車線境界線の検出を行わない除外領域を決定する除外領域決定手段と、
各道路ベクトルに対応する地表画像データのうち、前記除外領域以外の領域に含まれる車線境界線を検出する車線境界線検出手段と、
道路ベクトル毎に、前記検出された車線境界線の情報に基づいて、車線数を決定する車線数決定手段とを備えていることを特徴とする道路車線数決定システム。
A system for determining the number of road lanes included in a ground image obtained by photographing a ground surface from an artificial satellite or an aircraft,
Have at least ground image data and road vector data,
Exclusion region determination means for determining an exclusion region where lane boundary lines are not detected in the ground surface image data;
Lane boundary detection means for detecting a lane boundary included in a region other than the excluded region of the ground image data corresponding to each road vector;
A road lane number determination system comprising: a lane number determination unit that determines the number of lanes based on the detected lane boundary line information for each road vector.
人工衛星又は航空機から地表を撮影した地表画像に含まれる道路の車線数を決定するシステムであって、
少なくとも地表画像データ及び道路ベクトルデータを有しており、
地表画像データにおいて車線境界線の検出を行わない除外領域を決定する除外領域決定手段と、
所定以上の長さを有する道路ベクトルに対応する地表画像データのうち、前記除外領域以外の領域に含まれる車線境界線を検出する車線境界線検出手段と、
道路ベクトル毎に、前記検出された車線境界線の情報に基づいて、車線数を決定する車線数決定手段と、
前記所定以上の長さを有さない道路ベクトルについて、当該道路ベクトル近傍の他の1以上の道路ベクトルについて決定された車線数に基づいて、当該道路ベクトルについての車線数を推定する車線数推定手段とを備えていることを特徴とする道路車線数決定システム。
A system for determining the number of road lanes included in a ground image obtained by photographing a ground surface from an artificial satellite or an aircraft,
Have at least ground image data and road vector data,
Exclusion region determination means for determining an exclusion region where lane boundary lines are not detected in the ground surface image data;
A lane boundary detection means for detecting a lane boundary included in a region other than the exclusion region of the ground image data corresponding to a road vector having a predetermined length or more;
Lane number determining means for determining the number of lanes based on the information of the detected lane boundary line for each road vector;
Lane number estimating means for estimating the number of lanes for the road vector based on the number of lanes determined for one or more other road vectors in the vicinity of the road vector for the road vector not having the predetermined length or more. And a road lane number determination system.
請求項1から3のいずれか1項に記載の道路車線数決定システムにおいて、
地表画像データをHLS形式及びRGB形式の相互に変換する色形式変換手段をさらに備えており、
前記除外領域決定手段及び前記車線境界線検出手段は、HLS形式及びRGB形式の地表画像データのうち一方又は両方を用いて除外領域決定及び車線境界線検出を行うことを特徴とする道路車線数決定システム。
In the road lane number determination system according to any one of claims 1 to 3,
A color format conversion means for converting the ground image data between the HLS format and the RGB format;
The exclusion area determination means and the lane boundary detection means perform exclusion area determination and lane boundary detection using one or both of ground image data in HLS format and RGB format. system.
前記車線境界線検出手段は、HLS形式の地表画像データの明度を2値化したデータを用いて、車線境界線検出を行うことを特徴とする請求項4に記載の道路車線数決定システム。   5. The road lane number determination system according to claim 4, wherein the lane boundary detection unit performs lane boundary detection using data obtained by binarizing brightness of ground image data in HLS format. 前記車線境界線検出手段は、地表画像データのうち前記除外領域については、前記除外領域の周囲において検出された車線境界線の情報に基づいて、車線境界線の存在を推定することを特徴とする請求項3から5のいずれか1項に記載の道路車線数決定システム。   The lane boundary detection means estimates the presence of a lane boundary based on information on the lane boundary detected around the exclusion area for the exclusion area in the ground image data. The road lane number determination system according to any one of claims 3 to 5. 前記車線境界線検出手段は、各道路ベクトルに対応する地表画像データを道路ベクトル長さ方向に沿って所定幅で分割し、それぞれの分割画像データが車線境界線を含んでいるかどうかを判定することにより、車線境界線を検出することを特徴とする請求項1から6のいずれか1項に記載の道路車線数決定システム。   The lane boundary detection means divides ground image data corresponding to each road vector by a predetermined width along the road vector length direction, and determines whether each divided image data includes a lane boundary. The road lane number determination system according to any one of claims 1 to 6, wherein a lane boundary line is detected. 前記車線境界線検出手段は、前記分割画像データにおいて、他の領域とは画素値又は明度が異なる画像領域であって道路ベクトル長さ方向に所定以上の長さを有する領域を、車線境界線として検出することを特徴とする請求項7に記載の道路車線数決定システム。   In the divided image data, the lane boundary detection unit is an image region having a pixel value or brightness different from other regions and having a predetermined length or more in the road vector length direction as a lane boundary line. The road lane number determination system according to claim 7, wherein the road lane number determination system is detected. 前記除外領域決定手段は、地表画像データに含まれる交差点領域、車輌、植生、中央分離帯のうち少なくとも1つを除外領域として決定することを特徴とする請求項2から7のいずれか1項に記載の道路車線数決定システム。   The said exclusion area | region determination means determines at least 1 among the intersection area | region, a vehicle, a vegetation, and a median strip contained in ground surface image data as an exclusion area | region, The any one of Claim 2 to 7 characterized by the above-mentioned. The road lane number determination system described. 車線数推定手段は、前記所定以上の長さを有さない道路ベクトルについて、当該道路ベクトルそれぞれの端から連なる他の道路ベクトルのうち、車線数が決定されている道路ベクトルであってそれぞれの端に最も近い2つの道路ベクトルを検出し、当該道路ベクトルについての車線数は、検出した2つの道路ベクトルそれぞれについて決定されている車線数を上限下限とする範囲内の数値であると推定することを特徴とする請求項3から9のいずれか1項に記載の道路車線数決定システム。   The lane number estimating means is a road vector for which the number of lanes is determined among the other road vectors connected from the respective ends of the road vector, and for each road vector not having the predetermined length or more. Two road vectors closest to the road vector are estimated, and the number of lanes for the road vector is estimated to be a numerical value within a range where the number of lanes determined for each of the detected two road vectors is an upper limit and a lower limit. The road lane number determination system according to claim 3, wherein the road lane number determination system is a characteristic.
JP2005318170A 2005-11-01 2005-11-01 System and method for determining road lane number in road image Pending JP2007128141A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005318170A JP2007128141A (en) 2005-11-01 2005-11-01 System and method for determining road lane number in road image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005318170A JP2007128141A (en) 2005-11-01 2005-11-01 System and method for determining road lane number in road image

Publications (1)

Publication Number Publication Date
JP2007128141A true JP2007128141A (en) 2007-05-24

Family

ID=38150770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005318170A Pending JP2007128141A (en) 2005-11-01 2005-11-01 System and method for determining road lane number in road image

Country Status (1)

Country Link
JP (1) JP2007128141A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013089021A (en) * 2011-10-18 2013-05-13 Hitachi Solutions Ltd Image processing unit and image processing method
JP2015197828A (en) * 2014-04-01 2015-11-09 本田技研工業株式会社 Lane marker recognition device
CN107764263A (en) * 2016-08-22 2018-03-06 高德信息技术有限公司 A kind of generation method and device of track sequence number
JP2018173512A (en) * 2017-03-31 2018-11-08 パイオニア株式会社 Traffic lane information generation device, traffic lane information generation method, and program for traffic lane information generation
JP2018173511A (en) * 2017-03-31 2018-11-08 パイオニア株式会社 Traffic lane information generation device, traffic lane information generation method, and program for traffic lane information generation
JP2020201649A (en) * 2019-06-07 2020-12-17 トヨタ自動車株式会社 Map generation device, map generation method and computer program for map generation
CN113408407A (en) * 2018-10-31 2021-09-17 百度在线网络技术(北京)有限公司 Electronic map lane line correction method, device and computer readable storage medium
JP2022082569A (en) * 2019-06-07 2022-06-02 トヨタ自動車株式会社 Map generation device, map generation method, and computer program for map generation
WO2022209573A1 (en) * 2021-04-02 2022-10-06 日立Astemo株式会社 Information processing device and information processing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013089021A (en) * 2011-10-18 2013-05-13 Hitachi Solutions Ltd Image processing unit and image processing method
JP2015197828A (en) * 2014-04-01 2015-11-09 本田技研工業株式会社 Lane marker recognition device
CN107764263A (en) * 2016-08-22 2018-03-06 高德信息技术有限公司 A kind of generation method and device of track sequence number
CN107764263B (en) * 2016-08-22 2020-06-02 阿里巴巴(中国)有限公司 Method and device for generating lane serial number
JP2018173512A (en) * 2017-03-31 2018-11-08 パイオニア株式会社 Traffic lane information generation device, traffic lane information generation method, and program for traffic lane information generation
JP2018173511A (en) * 2017-03-31 2018-11-08 パイオニア株式会社 Traffic lane information generation device, traffic lane information generation method, and program for traffic lane information generation
CN113408407A (en) * 2018-10-31 2021-09-17 百度在线网络技术(北京)有限公司 Electronic map lane line correction method, device and computer readable storage medium
JP2020201649A (en) * 2019-06-07 2020-12-17 トヨタ自動車株式会社 Map generation device, map generation method and computer program for map generation
JP2022082569A (en) * 2019-06-07 2022-06-02 トヨタ自動車株式会社 Map generation device, map generation method, and computer program for map generation
JP7310957B2 (en) 2019-06-07 2023-07-19 トヨタ自動車株式会社 MAP GENERATION DEVICE, MAP GENERATION METHOD AND MAP GENERATION COMPUTER PROGRAM
WO2022209573A1 (en) * 2021-04-02 2022-10-06 日立Astemo株式会社 Information processing device and information processing method

Similar Documents

Publication Publication Date Title
JP2007128141A (en) System and method for determining road lane number in road image
CA2840436C (en) System for mapping and identification of plants using digital image processing and route generation
US7227975B2 (en) System and method for analyzing aerial photos
US8452103B2 (en) Scene matching reference data generation system and position measurement system
EP2984451B1 (en) Navigation system and method of determining a vehicle position
EP2372607A2 (en) Scene matching reference data generation system and position measurement system
US7676325B2 (en) Road landscape map producing apparatus, method and program
KR101261409B1 (en) System for recognizing road markings of image
Chong et al. Integrated real-time vision-based preceding vehicle detection in urban roads
US11718324B2 (en) Instance segmentation imaging system
CN111931683B (en) Image recognition method, device and computer readable storage medium
CN114639085A (en) Traffic signal lamp identification method and device, computer equipment and storage medium
CN110749323B (en) Method and device for determining operation route
US20220148200A1 (en) Estimating the movement of an image position
JP4747122B2 (en) Specific area automatic extraction system, specific area automatic extraction method, and program
Kühnl et al. Visual ego-vehicle lane assignment using spatial ray features
JP4762026B2 (en) Road sign database construction device
JP2007033931A (en) Road recognition system for map generation using satellite image or the like
CN112418081B (en) Method and system for quickly surveying traffic accidents by air-ground combination
US20150317828A1 (en) Method and system for geo-referencing at least one sensor image
JP4984261B2 (en) Target detection system
JP5407723B2 (en) Recognition device, recognition method, and program
JP4941420B2 (en) Target detection system
KR101517695B1 (en) Speed bump detection system and method during driving
Cheng et al. Urban road extraction from combined data sets of high-resolution satellite imagery and lidar data using GEOBIA