JP4774807B2 - Image correction device, feature recognition device, and feature recognition method - Google Patents

Image correction device, feature recognition device, and feature recognition method Download PDF

Info

Publication number
JP4774807B2
JP4774807B2 JP2005153425A JP2005153425A JP4774807B2 JP 4774807 B2 JP4774807 B2 JP 4774807B2 JP 2005153425 A JP2005153425 A JP 2005153425A JP 2005153425 A JP2005153425 A JP 2005153425A JP 4774807 B2 JP4774807 B2 JP 4774807B2
Authority
JP
Japan
Prior art keywords
feature
processing means
image
data
target feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005153425A
Other languages
Japanese (ja)
Other versions
JP2006331058A (en
Inventor
孝幸 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2005153425A priority Critical patent/JP4774807B2/en
Publication of JP2006331058A publication Critical patent/JP2006331058A/en
Application granted granted Critical
Publication of JP4774807B2 publication Critical patent/JP4774807B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像修正装置、地物認識装置及び地物認識方法に関するものである。   The present invention relates to an image correction device, a feature recognition device, and a feature recognition method.

従来、ナビゲーション装置においては、例えば、GPS(グローバルポジショニングシステム)によって車両の現在の位置、すなわち、現在地が検出されるとともに、ジャイロセンサによって検出された車両の旋回角に基づいて、車両の方位、すなわち、自車方位が検出され、データ記録部から地図データが読み出され、表示部に地図画面が形成され、該地図画面に、現在地を表す自車位置、自車位置の周辺の地図及び自車方位が表示されるようになっている。したがって、操作者である運転者は、前記地図画面に表示された自車位置、自車位置の周辺の地図及び自車方位に従って車両を走行させることができる。   Conventionally, in a navigation device, for example, the current position of a vehicle, that is, the current position is detected by GPS (Global Positioning System), and the direction of the vehicle, that is, based on the turning angle of the vehicle detected by a gyro sensor, that is, The vehicle direction is detected, map data is read from the data recording unit, a map screen is formed on the display unit, the vehicle position indicating the current location, a map around the vehicle position, and the vehicle The direction is displayed. Therefore, the driver who is an operator can drive the vehicle according to the vehicle position displayed on the map screen, the map around the vehicle position, and the vehicle direction.

また、運転者が目的地を入力し、探索条件を設定すると、該探索条件に基づいて、経路探索処理が行われ、前記地図データに従って現在地で表される出発地から目的地までの経路が探索される。そして、探索された経路、すなわち、探索経路は前記地図画面に自車位置と共に表示され、探索経路の案内、すなわち、経路案内が行われる。したがって、運転者は表示された探索経路に沿って車両を走行させることができる。   When the driver inputs a destination and sets search conditions, a route search process is performed based on the search conditions, and a route from the starting point represented by the current location to the destination is searched according to the map data. Is done. Then, the searched route, that is, the searched route is displayed on the map screen together with the vehicle position, and guidance for the searched route, that is, route guidance is performed. Therefore, the driver can drive the vehicle along the displayed search route.

ところで、例えば、交差点の手前の道路上に、ペイント等を塗装することによって地物としての停止線が形成されていることがあり、その場合、該停止線を車両に搭載されたカメラによって撮影し、停止線の画像に基づいて停止線を認識することができるようになっている(例えば、特許文献1参照。)。   By the way, for example, a stop line as a feature may be formed on the road before the intersection by painting or the like. In that case, the stop line is photographed by a camera mounted on the vehicle. The stop line can be recognized based on the image of the stop line (see, for example, Patent Document 1).

そのために、ナビゲーション装置は、搭載されたデータ記録部から道路データを読み出して道路の幅員、停止線の幅等を取得し、前記画像に対して、停止線の横幅方向及び前後幅方向の画像認識を行う。
特開2004−295597号公報
For this purpose, the navigation device reads road data from the mounted data recording unit to acquire the width of the road, the width of the stop line, etc., and recognizes the image in the horizontal direction and the front-rear width direction of the stop line with respect to the image. I do.
JP 2004-295597 A

しかしながら、前記従来のナビゲーション装置においては、停止線を認識する精度が低くなることがある。例えば、停止線は、該停止線上を車両が繰り返し走行することによって擦(こす)れ、一部が欠損することがある。その場合、道路の幅員、停止線の幅等に基づいて、停止線の横幅方向及び前後幅方向の画像認識を行っても、欠損している分だけ画像認識の精度が低くなってしまう。したがって、停止線の認識精度が低くなってしまう。   However, in the conventional navigation device, the accuracy of recognizing the stop line may be lowered. For example, the stop line may be rubbed (rubbed) when the vehicle repeatedly travels on the stop line, and a part of the stop line may be lost. In that case, even if image recognition in the horizontal width direction and the front-rear width direction of the stop line is performed based on the width of the road, the width of the stop line, and the like, the accuracy of the image recognition is reduced by the amount of missing. Therefore, the stop line recognition accuracy is lowered.

その結果、交差点を検出したり、交差点までの距離を算出したりする精度が低くなってしまう。   As a result, the accuracy of detecting the intersection and calculating the distance to the intersection is lowered.

本発明は、前記従来のナビゲーション装置の問題点を解決して、地物の認識精度を高くすることができる画像修正装置、地物認識装置及び地物認識方法を提供することを目的とする。   An object of the present invention is to provide an image correction device, a feature recognition device, and a feature recognition method capable of solving the problems of the conventional navigation device and increasing the recognition accuracy of the feature.

そのために、本発明の画像修正装置においては、地物を撮影する撮影装置と、撮影された画像の修正の対象となる対象地物上を車両が走行する際の、前記対象地物の周辺の道路の道路形状情報に基づく定常的な走行軌跡を推測する走行軌跡推測処理手段と、推測された走行軌跡に基づいて、対象地物における撮影された画像の修正部位を算出する修正部位算出処理手段と、前記対象地物上の車両走行指数に基づいて、算出された修正部位における画像の欠損の程度を表す擦れ推定パラメータを算出する擦れ推定パラメータ算出処理手段と、算出された擦れ推定パラメータに基づいて、前記修正部位の画像の欠損を修正する補間処理手段とを有する。   For this purpose, in the image correction device of the present invention, a photographing device for photographing a feature and a surrounding of the target feature when the vehicle travels on the target feature for which the photographed image is to be corrected. A traveling locus estimation processing means for estimating a steady traveling locus based on road shape information of a road, and a corrected portion calculation processing means for calculating a corrected portion of a photographed image on the target feature based on the estimated traveling locus And a rubbing estimation parameter calculation processing means for calculating a rubbing estimation parameter representing the degree of image loss at the calculated corrected portion based on the vehicle running index on the target feature, and based on the calculated rubbing estimation parameter Interpolating processing means for correcting a defect in the image of the corrected portion.

本発明によれば、対象地物上を車両が走行する際の定常的な走行軌跡が推測され、走行軌跡に基づいて、対象地物における画像の修正部位が算出され、該修正部位の画像の欠損が修正されるので、地物の認識精度を高くすることができる。   According to the present invention, a steady traveling locus when the vehicle travels on the target feature is estimated, and based on the traveling locus, the corrected portion of the image of the target feature is calculated, and the image of the corrected portion of the image is corrected. Since the defect is corrected, the feature recognition accuracy can be increased.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の実施の形態におけるナビゲーションシステムを示す図である。   FIG. 1 is a diagram showing a navigation system according to an embodiment of the present invention.

図において、10はパワートレイン制御部としての自動変速機制御部、11は図示されないエンジン、電気モータ等の駆動動力源と共に使用され、所定の変速比で変速を行うパワートレインである。本実施の形態において、該パワートレイン11として、自動変速機としてのベルト式、トロイダル式等の無段変速機(CVT)が使用されるが、自動変速機としての有段変速機(オートマチックトランスミッション)を使用することができる。また、パワートレイン11として、エンジン及び電気モータを備えたハイブリット型車両又は電気自動車に使用され、電気モータを駆動することによって無段変速を行う電動駆動装置を使用することができる。   In the figure, reference numeral 10 denotes an automatic transmission control unit as a power train control unit, and 11 denotes a power train that is used together with a driving power source such as an engine and an electric motor (not shown) and performs shifting at a predetermined gear ratio. In the present embodiment, a belt-type, toroidal-type continuously variable transmission (CVT) such as an automatic transmission is used as the power train 11, but a stepped transmission (automatic transmission) as an automatic transmission is used. Can be used. Further, as the power train 11, an electric drive device that is used in a hybrid vehicle or an electric vehicle including an engine and an electric motor and performs a continuously variable transmission by driving the electric motor can be used.

そして、14は情報端末、例えば、車両に搭載された車載装置としてのナビゲーション装置、63はネットワーク、51は情報提供者としての情報センタであり、前記自動変速機制御部10、ナビゲーション装置14、ネットワーク63、情報センタ51等によってナビゲーションシステムが構成される。   Reference numeral 14 is an information terminal, for example, a navigation device as an in-vehicle device mounted on a vehicle, 63 is a network, 51 is an information center as an information provider, and the automatic transmission control unit 10, the navigation device 14, the network 63, the information center 51 and the like constitute a navigation system.

前記ナビゲーション装置14は、現在地を検出する現在地検出部としてのGPSセンサ15、地図データのほかに各種の情報が記録された情報記録部としてのデータ記録部16、入力された情報に基づいて、ナビゲーション処理等の各種の演算処理を行うナビゲーション処理部17、自車方位を検出する方位検出部としての方位センサ18、操作者である運転者が操作することによって所定の入力を行うための第1の入力部としての操作部34、図示されない画面に表示された画像によって各種の表示を行い、運転者に通知するための第1の出力部としての表示部35、音声によって所定の入力を行うための第2の入力部としての音声入力部36、音声によって各種の表示を行い、運転者に通知するための第2の出力部としての音声出力部37、及び通信端末として機能する送受信部としての通信部38を備え、前記ナビゲーション処理部17に、GPSセンサ15、データ記録部16、方位センサ18、操作部34、表示部35、音声入力部36、音声出力部37及び通信部38が接続される。   The navigation device 14 includes a GPS sensor 15 as a current location detection unit for detecting a current location, a data recording unit 16 as an information recording unit in which various information is recorded in addition to map data, and navigation based on the input information. A navigation processing unit 17 that performs various arithmetic processing such as processing, a direction sensor 18 that serves as a direction detection unit that detects the vehicle direction, and a first input for performing predetermined input when operated by a driver as an operator. An operation unit 34 as an input unit, various displays by an image displayed on a screen (not shown), a display unit 35 as a first output unit for notifying the driver, and a predetermined input by voice A voice input unit 36 as a second input unit, a voice output unit 3 as a second output unit for performing various displays by voice and notifying the driver , And a communication unit 38 as a transmission / reception unit functioning as a communication terminal. The navigation processing unit 17 includes a GPS sensor 15, a data recording unit 16, an orientation sensor 18, an operation unit 34, a display unit 35, a voice input unit 36, An audio output unit 37 and a communication unit 38 are connected.

また、前記ナビゲーション処理部17には、前記自動変速機制御部10、車両の前方を監視する前方監視装置48、車両の前方、側方又は後方、すなわち、車両の周辺を撮影する撮像装置としてのカメラ49、運転者によるアクセルペダルの操作をアクセル開度で検出する負荷検出部としてのアクセルセンサ42、運転者によるブレーキペダルの操作をブレーキ踏込量で検出する制動検出部としてのブレーキセンサ43、車速を検出する車速センサ44等が接続される。なお、前記アクセルセンサ42、ブレーキセンサ43等は運転者による車両の操作情報を検出するための車両情報検出部を構成する。   The navigation processing unit 17 includes the automatic transmission control unit 10, a front monitoring device 48 that monitors the front of the vehicle, and an imaging device that captures the front, side, or rear of the vehicle, that is, the periphery of the vehicle. A camera 49, an accelerator sensor 42 as a load detection unit that detects the operation of the accelerator pedal by the driver by the accelerator opening, a brake sensor 43 as a brake detection unit that detects the operation of the brake pedal by the driver by the brake depression amount, vehicle speed A vehicle speed sensor 44 or the like is detected. The accelerator sensor 42, the brake sensor 43 and the like constitute a vehicle information detection unit for detecting vehicle operation information by the driver.

前記GPSセンサ15は、人工衛星によって発生させられた電波を受信することによって地球上における現在地を検出し、併せて時刻を検出する。本実施の形態においては、現在地検出部としてGPSセンサ15が使用されるようになっているが、該GPSセンサ15に代えて図示されない距離センサ、ステアリングセンサ、高度計等を単独で、又は組み合わせて使用することもできる。また、前記方位センサ18としてジャイロセンサ、地磁気センサ等を使用することができる。   The GPS sensor 15 detects the current location on the earth by receiving radio waves generated by an artificial satellite, and also detects the time. In the present embodiment, the GPS sensor 15 is used as the current position detection unit, but a distance sensor, a steering sensor, an altimeter, etc. (not shown) are used alone or in combination instead of the GPS sensor 15. You can also Further, a gyro sensor, a geomagnetic sensor, or the like can be used as the direction sensor 18.

前記データ記録部16は、地図データファイルから成る地図データベースを備え、該地図データベースに地図データが記録される。該地図データには、交差点に関する交差点データ、ノードに関するノードデータ、道路リンク及びレーンに関する道路データ、探索用に加工された探索データ、施設に関する施設データ等が含まれるほか、地物に関する地物データが含まれる。前記地物には、道路上に形成された停止線、横断歩道、レーン(車線)を区分する通行帯表示線、レーンにおける進行方向を矢印で表す通行区分、路上標識、道路上のマンホール、信号機等が含まれ、地物データには、前記各地物の位置を表す位置情報、各地物の画像を表す画像情報等が含まれる。前記停止線は、交差点、踏切り等の手前に形成される。また、前記レーンに関する道路データとして、道路上の各レーンごとに付与されたレーン番号、レーンの位置情報等から成るレーンデータが含まれる。   The data recording unit 16 includes a map database including map data files, and map data is recorded in the map database. The map data includes intersection data relating to intersections, node data relating to nodes, road data relating to road links and lanes, search data processed for searching, facility data relating to facilities, and other feature data relating to features. included. The features include a stop line formed on the road, a pedestrian crossing, a traffic band display line that divides the lane (lane), a traffic division that indicates the traveling direction in the lane with an arrow, a road sign, a manhole on the road, a traffic light The feature data includes position information representing the position of each feature, image information representing an image of each feature, and the like. The stop line is formed before an intersection, a crossing, or the like. The road data related to the lane includes lane data including a lane number assigned to each lane on the road, lane position information, and the like.

さらに、前記データ記録部16には、統計データファイルから成る統計データベース、走行履歴データファイルから成る走行履歴データベース等が形成され、前記統計データファイルに統計データが、前記走行履歴データファイルに走行履歴データが、いずれも実績データとして記録される。   Further, the data recording unit 16 includes a statistical database composed of statistical data files, a travel history database composed of travel history data files, and the like. Statistical data is stored in the statistical data file, and travel history data is stored in the travel history data file. However, both are recorded as performance data.

前記統計データは、過去に提供された交通情報の実績、すなわち、履歴を表す履歴情報であり、情報提供者としてのVICS(登録商標:Vehicle Information and Communication System)センタ等の図示されない道路交通情報センタ等によって過去に提供された交通情報、国土交通省によって提供された道路交通センサスによる交通量を表すデータ(以下「道路交通センサス情報」という。)、国土交通省によって提供された道路時刻表情報等を単独で、又は組み合わせて使用し、必要に応じて、加工し、統計処理を施すことによって作成される。なお、前記統計データに、渋滞状況を予測する渋滞予測情報等を加えることもできる。その場合、前記統計データを作成するに当たり、履歴情報に、日時、曜日、天候、各種イベント、季節、施設の情報(デパート、スーパーマーケット等の大型の施設の有無)等の詳細な条件が加えられる。   The statistical data is a history of traffic information provided in the past, that is, history information representing a history, and a road traffic information center (not shown) such as a VICS (registered trademark: Vehicle Information and Communication System) center as an information provider. Traffic information provided in the past, etc., data indicating traffic volume by road traffic census provided by the Ministry of Land, Infrastructure, Transport and Tourism (hereinafter referred to as “road traffic census information”), road timetable information provided by the Ministry of Land, Infrastructure, Transport and Tourism, etc. Are used alone or in combination, and if necessary, they are processed and subjected to statistical processing. It is possible to add traffic jam prediction information for predicting traffic jams to the statistical data. In that case, in creating the statistical data, detailed conditions such as date and time, day of the week, weather, various events, seasons, facility information (presence / absence of large facilities such as department stores and supermarkets) are added to the history information.

前記統計データのデータ項目には、過去に車両が走行した道路、すなわち、各走行道路を構成する各道路リンクについてのリンク番号、走行方向を表す方向フラグ、情報の種類を表す情報種別、所定のタイミングごとの渋滞度、前記各道路リンクを走行したときの、所定のタイミングごとの所要時間を表すリンク所要時間、該リンク所要時間の各曜日ごとの平均的なデータ(例えば、曜日平均データ)等から成る。   The data items of the statistical data include the road on which the vehicle has traveled in the past, that is, the link number for each road link constituting each traveling road, the direction flag representing the traveling direction, the information type representing the type of information, a predetermined type The degree of congestion at each timing, the link required time indicating the required time for each predetermined timing when traveling on each road link, average data for each day of the link required time (for example, average data for day of week), etc. Consists of.

また、走行履歴データは、情報センタ51が複数の車両(自車又は他車)から収集した走行道路における車両の走行の実績、すなわち、走行実績を表す実績情報であり、走行データに基づいてプローブデータとして算出され、蓄積される。   The travel history data is the track record of the travel of the vehicle on the travel road collected by the information center 51 from a plurality of vehicles (own vehicle or other vehicle), that is, the track record information indicating the track record. Calculated and accumulated as data.

前記走行履歴データのデータ項目は、所定のタイミングごとの渋滞度、各道路リンクを走行したときの、所定のタイミングごとのリンク所要時間、各道路リンクを走行したときの、所定のタイミングごとの平均車速、車両の種類ごとの交通量等から成る。なお、前記統計データに、走行履歴データを加えることができる。また、本実施の形態において、渋滞度は、渋滞の度合いを表す渋滞指標として使用され、渋滞、混雑及び非渋滞の別で表される。   The data items of the travel history data include the degree of congestion at each predetermined timing, the required link time at each predetermined timing when traveling on each road link, and the average at each predetermined timing when traveling on each road link. Consists of vehicle speed and traffic volume for each type of vehicle. Note that travel history data can be added to the statistical data. Further, in the present embodiment, the congestion level is used as a congestion index that represents the degree of congestion, and is represented separately for congestion, congestion, and non-congestion.

さらに、前記データ記録部16には、所定の情報を音声出力部37によって出力するためのデータも記録される。   Further, data for outputting predetermined information by the audio output unit 37 is also recorded in the data recording unit 16.

前記データ記録部16は、前記各種のデータを記録するために、ハードディスク、CD、DVD、光ディスク等の図示されないディスクを備えるほかに、各種のデータを読み出したり、書き込んだりするための読出・書込ヘッド等の図示されないヘッドを備える。前記データ記録部16にメモリカード等を使用することができる。   The data recording unit 16 includes a disk (not shown) such as a hard disk, a CD, a DVD, and an optical disk in order to record the various data, and also reads / writes for reading and writing various data. A head (not shown) such as a head is provided. A memory card or the like can be used for the data recording unit 16.

本実施の形態においては、前記データ記録部16に、前記地図データベース、統計データベース、走行履歴データベース等が配設されるようになっているが、情報センタ51において、前記地図データベース、統計データベース、走行履歴データベース等を配設することもできる。   In the present embodiment, the data recording unit 16 is provided with the map database, statistical database, travel history database, and the like. However, in the information center 51, the map database, statistical database, travel history, etc. A history database or the like can also be provided.

また、前記ナビゲーション処理部17は、ナビゲーション装置14の全体の制御を行う制御装置としての、かつ、演算装置としてのCPU31、該CPU31が各種の演算処理を行うに当たってワーキングメモリとして使用されるRAM32、制御用のプログラムのほか、目的地までの経路の探索、経路案内等を行うための各種のプログラムが記録されたROM33、各種のデータ、プログラム等を記録するために使用される図示されないフラッシュメモリを備える。なお、本実施の形態においては、CPU31によって画像修正装置及び地物認識装置が構成される。   The navigation processing unit 17 is a control device that performs overall control of the navigation device 14 and a CPU 31 as an arithmetic device, a RAM 32 that is used as a working memory when the CPU 31 performs various arithmetic processes, In addition to the above program, a ROM 33 in which various programs for searching for a route to the destination, route guidance and the like are recorded, and a flash memory (not shown) used for recording various data, programs and the like are provided. . In the present embodiment, the CPU 31 constitutes an image correction device and a feature recognition device.

本実施の形態においては、前記ROM33に各種のプログラムを記録し、前記データ記録部16に各種のデータを記録することができるが、プログラム、データ等をディスク等に記録することもできる。この場合、ディスク等から前記プログラム、データ等を読み出してフラッシュメモリに書き込むことができる。したがって、ディスク等を交換することによって前記プログラム、データ等を更新することができる。また、前記自動変速機制御部10の制御用のプログラム、データ等も前記ディスク等に記録することができる。さらに、通信部38を介して前記プログラム、データ等を受信し、ナビゲーション処理部17のフラッシュメモリに書き込むこともできる。   In the present embodiment, various programs can be recorded in the ROM 33 and various data can be recorded in the data recording unit 16, but the programs, data, and the like can also be recorded on a disk or the like. In this case, the program, data, etc. can be read from a disk or the like and written to the flash memory. Therefore, the program, data, etc. can be updated by exchanging the disk or the like. Further, the control program, data, and the like of the automatic transmission control unit 10 can be recorded on the disk or the like. Further, the program, data, and the like can be received via the communication unit 38 and written into the flash memory of the navigation processing unit 17.

前記操作部34は、運転者が操作することによって、走行開始時の現在地を修正したり、出発地及び目的地を入力したり、通過点を入力したり、通信部38を作動させたりするためのものであり、前記操作部34として、表示部35とは独立に配設されたキーボード、マウス等を使用することができる。また、前記操作部34として、前記表示部35に形成された画面に画像で表示された各種のキー、スイッチ、ボタン等の画像操作部をタッチ又はクリックすることによって、所定の入力操作を行うことができるようにしたタッチパネルを使用することができる。   The operation unit 34 is operated by the driver to correct the current location at the start of traveling, to input a departure point and a destination, to input a passing point, and to activate the communication unit 38. As the operation unit 34, a keyboard, a mouse, or the like disposed independently of the display unit 35 can be used. Further, as the operation unit 34, a predetermined input operation is performed by touching or clicking an image operation unit such as various keys, switches, and buttons displayed as images on the screen formed in the display unit 35. It is possible to use a touch panel that can be used.

前記表示部35としてディスプレイが使用される。そして、表示部35に形成された各種の画面に、現在地を表す自車位置、地図、探索経路、該探索経路に沿った案内情報、交通情報等を表示したり、探索経路における次の交差点までの距離、次の交差点における進行方向を表示したりすることができるだけでなく、前記画像操作部、操作部34、音声入力部36等の操作案内、操作メニュー、キーの案内を表示したり、FM多重放送の番組等を表示したりすることができる。   A display is used as the display unit 35. Then, on various screens formed on the display unit 35, the vehicle position indicating the current location, a map, a searched route, guidance information along the searched route, traffic information, etc. are displayed, or until the next intersection in the searched route. In addition to displaying the distance and the direction of travel at the next intersection, the operation guidance, operation menu, and key guidance of the image operation unit, operation unit 34, voice input unit 36, etc. can be displayed. A multiplex broadcast program or the like can be displayed.

また、音声入力部36は、図示されないマイクロホン等によって構成され、音声によって必要な情報を入力することができる。さらに、音声出力部37は、図示されない音声合成装置及びスピーカを備え、音声出力部37から、前記探索経路、案内情報、交通情報等が、例えば、音声合成装置によって合成された音声で出力される。   The voice input unit 36 includes a microphone (not shown) and the like, and can input necessary information by voice. Further, the voice output unit 37 includes a voice synthesizer and a speaker (not shown), and the search route, guidance information, traffic information, and the like are output from the voice output unit 37, for example, as voice synthesized by the voice synthesizer. .

前記通信部38は、前記道路交通情報センタから送信された現況の交通情報、一般情報等の各種の情報を、道路に沿って配設された電波ビーコン装置、光ビーコン装置等を介して電波ビーコン、光ビーコン等として受信するためのビーコンレシーバ、FM放送局を介してFM多重放送として受信するためのFM受信機等を備える。なお、前記交通情報には、渋滞情報、規制情報、駐車場情報、交通事故情報、サービスエリアの混雑状況情報等が含まれ、一般情報には、ニュース、天気予報等が含まれる。また、前記ビーコンレシーバ及びFM受信機は、ユニット化されてVICSレシーバとして配設されるようになっているが、別々に配設することもできる。   The communication unit 38 transmits various information such as current traffic information and general information transmitted from the road traffic information center to radio wave beacons via radio wave beacon devices, optical beacon devices and the like arranged along the road. A beacon receiver for receiving as an optical beacon, an FM receiver for receiving as an FM multiplex broadcast via an FM broadcast station, and the like. The traffic information includes traffic jam information, regulation information, parking lot information, traffic accident information, service area congestion status information, and the like, and general information includes news, weather forecasts, and the like. Further, the beacon receiver and the FM receiver are unitized and arranged as a VICS receiver, but can be arranged separately.

前記交通情報は、情報の種別を表す情報種別、メッシュを特定するためのメッシュ番号、二つの地点(例えば、交差点)間を連結する道路リンクを特定し、かつ、上り/下りの別を表すリンク番号、該リンク番号に対応させて提供される情報の内容を表すリンク情報を含み、例えば、交通情報が渋滞情報である場合、前記リンク情報は、前記道路リンクの始点から渋滞の先頭までの距離を表す渋滞先頭データ、渋滞度、渋滞区間を前記渋滞の先頭から渋滞の末尾までの距離を表す渋滞長、リンク所要時間等から成る。   The traffic information includes an information type that indicates the type of information, a mesh number for specifying a mesh, a road link that connects two points (for example, intersections), and a link that indicates whether it is up / down. Number, including link information representing the content of information provided corresponding to the link number. For example, when the traffic information is traffic jam information, the link information is a distance from the start point of the road link to the head of the traffic jam Congestion head data representing traffic congestion degree, congestion section, traffic jam length representing the distance from the head of the traffic jam to the end of the traffic jam, link required time, and the like.

そして、通信部38は、前記情報センタ51から前記地図データ、統計データ、走行履歴データ等のデータのほかに、交通情報、一般情報等の各種の情報を受信することができる。   The communication unit 38 can receive various information such as traffic information and general information in addition to the map data, statistical data, and travel history data from the information center 51.

そのために、前記情報センタ51は、サーバ53、該サーバ53に接続された通信部57及び情報記録部としてのデータベース(DB)58等を備え、前記サーバ53は、制御装置としての、かつ、演算装置としてのCPU54、RAM55、ROM56等を備える。また、前記データベース58に、前記データ記録部16に記録された各種のデータと同様のデータ、例えば、前記地図データ、統計データ、走行履歴データ等が記録される。さらに、情報センタ51は、前記道路交通情報センタから送信された現況の交通情報、一般情報等の各種の情報、及び複数の車両(自車又は他車)から収集した走行履歴データをリアルタイムに提供することができる。   For this purpose, the information center 51 includes a server 53, a communication unit 57 connected to the server 53, a database (DB) 58 as an information recording unit, and the like. A CPU 54, a RAM 55, a ROM 56, etc. are provided as devices. The database 58 records data similar to the various data recorded in the data recording unit 16, for example, the map data, statistical data, travel history data, and the like. Further, the information center 51 provides various information such as current traffic information and general information transmitted from the road traffic information center, and travel history data collected from a plurality of vehicles (own vehicle or other vehicles) in real time. can do.

前記前方監視装置48は、レーザレーダ、ミリ波レーダ等のレーダ、超音波センサ等、又はそれらの組合せから成り、自車周辺情報として車間距離、車間時間、先行車に対する接近速度、一時停止箇所(非優先道路から優先道路への進入箇所、踏切、赤信号が点滅する交差点等)に対する接近速度、障害物に対する接近速度等を算出し、先行車、一時停止箇所、障害物等を監視する。また、前記カメラ49は、CCD、C−MOS等から成り、自車周辺情報として前記各地物のほかに、周辺の車両、建造物、交差点、案内看板等を被撮影物として撮影し、撮影された被撮影物の画像の画像データをCPU31に送る。   The forward monitoring device 48 includes a radar such as a laser radar or a millimeter wave radar, an ultrasonic sensor, or a combination thereof. As the vehicle surrounding information, an inter-vehicle distance, an inter-vehicle time, an approach speed with respect to a preceding vehicle, a temporary stop point ( The approach speed to the priority road from the non-priority road, the crossing, the intersection where the red light blinks, etc.), the approach speed to the obstacle, etc. are calculated, and the preceding vehicle, the temporary stop, the obstacle, etc. are monitored. The camera 49 is composed of a CCD, a C-MOS, and the like, and as a subject vehicle surrounding information, in addition to the above-mentioned various features, the surrounding vehicles, buildings, intersections, information signs, etc. are photographed as objects to be photographed. The image data of the captured object image is sent to the CPU 31.

該CPU31は、前記画像データを受信すると、画像データを処理して被撮影物を認識するとともに、車両の周辺を監視する。   When the CPU 31 receives the image data, the CPU 31 processes the image data to recognize an object to be photographed and monitors the periphery of the vehicle.

なお、前記ナビゲーションシステム、ナビゲーション処理部17、CPU31、54、サーバ53等は、各種のプログラム、データ等に基づいてコンピュータとして機能する。また、データ記録部16、RAM32、55、ROM33、56、データベース58、フラッシュメモリ等によって記録媒体が構成される。そして、演算装置として、CPU31、54に代えてMPU等を使用することもできる。   The navigation system, the navigation processing unit 17, the CPUs 31, 54, the server 53, and the like function as a computer based on various programs, data, and the like. The data recording unit 16, RAMs 32 and 55, ROMs 33 and 56, database 58, flash memory, and the like constitute a recording medium. An MPU or the like can be used instead of the CPUs 31 and 54 as the arithmetic unit.

次に、前記構成のナビゲーションシステムを経路案内システムとして使用したときの基本動作について説明する。   Next, a basic operation when the navigation system having the above configuration is used as a route guidance system will be described.

まず、運転者によって操作部34が操作され、ナビゲーション装置14が起動されると、CPU31の図示されないナビ初期化処理手段は、ナビ初期化処理を行い、GPSセンサ15によって検出された現在地、方位センサ18によって検出された自車方位等を読み込むとともに、各種のデータを初期化する。次に、前記CPU31の図示されないマッチング処理手段は、マッチング処理を行い、読み込まれた現在地の軌跡、及び現在地の周辺の道路を構成する各道路リンクの形状、配列等に基づいて、現在地がいずれの道路リンク上に位置するかの判定を行うことによって、現在地を特定する。   First, when the operation unit 34 is operated by the driver and the navigation device 14 is activated, a navigation initialization processing unit (not shown) of the CPU 31 performs navigation initialization processing, and the current location and direction sensor detected by the GPS sensor 15. 18 reads the vehicle direction detected by 18 and initializes various data. Next, the matching processing means (not shown) of the CPU 31 performs matching processing, and based on the trajectory of the read current location and the shape, arrangement, etc. of each road link constituting the road around the current location, The current location is identified by determining whether it is located on the road link.

また、前記CPU31の図示されない画像認識処理手段としての地物認識処理手段は、画像認識処理としての地物認識処理を行い、カメラ49によって撮影された地物の画像の画像データを読み込み、該画像データに対して画像処理を行って地物を認識する。   In addition, a feature recognition processing unit (not shown) of the CPU 31 performs a feature recognition process as an image recognition process, reads image data of a feature image captured by the camera 49, and reads the image data. Image processing is performed on the data to recognize features.

したがって、認識された地物に基づいて、交差点、踏切、横断歩道、車両が走行しているレーン(以下「走行レーン」という。)等の道路施設の検出を行うことができる。例えば、認識された地物が停止線である場合、前記地物認識処理手段の道路施設検出処理手段としての交差点検出処理手段は、道路施設検出処理としての交差点検出処理を行い、データ記録部16から地物データを読み出し、認識された停止線の画像データと地物データとを照合して交差点を検出する。また、前記道路施設検出処理手段としての踏切検出処理手段は、道路施設検出処理としての踏切検出処理を行い、認識された踏切の画像データと地物データとを照合して踏切を検出する。同様に、前記道路施設検出処理手段としての横断歩道検出処理手段は、道路施設検出処理としての横断歩道検出処理を行い、認識された横断歩道の画像データと地物データとを照合して横断歩道を検出する。また、前記道路施設検出処理手段としての走行レーン検出処理手段は、道路施設検出処理としての走行レーン検出処理を行い、認識された通行帯表示線、通行区分、マンホール等の画像データと地物データとを照合して走行レーンを検出する。   Therefore, based on the recognized features, it is possible to detect road facilities such as intersections, railroad crossings, pedestrian crossings, and lanes on which vehicles are traveling (hereinafter referred to as “traveling lanes”). For example, when the recognized feature is a stop line, the intersection detection processing unit as the road facility detection processing unit of the feature recognition processing unit performs the intersection detection processing as the road facility detection processing, and the data recording unit 16 Then, the feature data is read out, and the intersection is detected by comparing the image data of the recognized stop line with the feature data. The crossing detection processing means as the road facility detection processing means performs a crossing detection process as the road facility detection processing, and detects a crossing by comparing the image data of the recognized crossing with the feature data. Similarly, the pedestrian crossing detection processing means as the road facility detection processing means performs a pedestrian crossing detection process as the road facility detection processing, and compares the image data of the recognized pedestrian crossing with the feature data to cross the pedestrian crossing. Is detected. Further, the travel lane detection processing means as the road facility detection processing means performs travel lane detection processing as the road facility detection processing, and image data and feature data such as recognized traffic band display lines, traffic classifications, manholes, etc. And the traveling lane is detected.

なお、前記走行レーン検出処理手段は、地磁気センサのセンサ出力を読み込み、該センサ出力に基づいて、道路上の所定のレーンにマンホール等の強磁性体から成る被検出物があるかどうかを判断し、判断結果に基づいて走行レーンを検出することができる。さらに、高精度のGPSセンサ15を使用し、現在地を精度よく検出し、検出結果に基づいて走行レーンを検出することができる。また、必要に応じて、通行帯表示線の画像データに対して画像処理を行うのと同時に、地磁気センサのセンサ出力、現在地等を組み合わせて、走行レーンを検出することができる。   The traveling lane detection processing means reads the sensor output of the geomagnetic sensor, and based on the sensor output, determines whether or not there is a detected object made of a ferromagnetic material such as a manhole in a predetermined lane on the road. The traveling lane can be detected based on the determination result. Furthermore, it is possible to detect the current location with high accuracy using the highly accurate GPS sensor 15 and to detect the traveling lane based on the detection result. Further, if necessary, it is possible to detect the traveling lane by combining the sensor output of the geomagnetic sensor, the current location, etc. simultaneously with performing image processing on the image data of the traffic band display line.

また、CPU31の図示されない距離算出処理手段は、距離算出処理を行い、現在地から検出された交差点、踏切、横断歩道等までの距離を算出する。そして、前記CPU31の図示されない現在地補正処理手段は、現在地補正処理を行い、前記距離を読み込み、現在地を、例えば、座標について補正する。   Further, a distance calculation processing unit (not shown) of the CPU 31 performs a distance calculation process to calculate a distance from the current location to a detected intersection, railroad crossing, crosswalk, and the like. A current location correction processing unit (not shown) of the CPU 31 performs current location correction processing, reads the distance, and corrects the current location, for example, with respect to coordinates.

続いて、CPU31の図示されない基本情報取得処理手段は、基本情報取得処理を行い、前記地図データを、データ記録部16から読み出して取得するか、又は通信部38を介して情報センタ51等から受信して取得する。なお、地図データを情報センタ51から取得する場合、前記基本情報取得処理手段は、受信した地図データをフラッシュメモリにダウンロードする。   Subsequently, a basic information acquisition processing unit (not shown) of the CPU 31 performs a basic information acquisition process and acquires the map data by reading it from the data recording unit 16 or receiving it from the information center 51 or the like via the communication unit 38. And get. In addition, when acquiring map data from the information center 51, the said basic information acquisition process means downloads the received map data to flash memory.

そして、前記CPU31の図示されない表示処理手段は、表示処理を行い、前記表示部35に各種の画面を形成する。例えば、表示処理手段の地図表示処理手段は、地図表示処理を行い、表示部35に地図画面を形成し、該地図画面に自車位置、自車位置の周辺の地図及び自車方位を表示する。したがって、運転者は、前記自車位置、自車位置の周辺の地図及び自車方位に従って車両を走行させることができる。   A display processing unit (not shown) of the CPU 31 performs display processing and forms various screens on the display unit 35. For example, the map display processing means of the display processing means performs map display processing, forms a map screen on the display unit 35, and displays the vehicle position, a map around the vehicle position, and the vehicle direction on the map screen. . Therefore, the driver can drive the vehicle according to the vehicle position, the map around the vehicle position, and the vehicle direction.

また、運転者が操作部34を操作して目的地を入力すると、CPU31の図示されない目的地設定処理手段は、目的地設定処理を行い、目的地を設定する。なお、必要に応じて出発地を入力し、設定することもできる。また、あらかじめ所定の地点を登録しておき、登録された地点を目的地として設定することができる。続いて、運転者が操作部34を操作して探索条件を入力すると、CPU31の図示されない探索条件設定処理手段は、探索条件設定処理を行い、探索条件を設定する。   Further, when the driver operates the operation unit 34 to input a destination, a destination setting processing unit (not shown) of the CPU 31 performs a destination setting process to set the destination. Note that the departure place can be input and set as necessary. Moreover, a predetermined point can be registered in advance, and the registered point can be set as a destination. Subsequently, when the driver operates the operation unit 34 to input a search condition, a search condition setting processing unit (not shown) of the CPU 31 performs a search condition setting process to set the search condition.

このようにして、目的地及び探索条件が設定されると、CPU31の図示されない経路探索処理手段は、経路探索処理を行い、前記現在地、目的地、探索条件等を読み込むとともに、データ記録部16から探索データ等を読み出し、現在地、目的地及び探索データに基づいて、現在地で表される出発地から目的地までの経路を前記探索条件で探索し、探索経路を表す経路データを出力する。この場合、各道路リンクごとに付与されたリンクコストの合計が最も小さい経路が探索経路とされる。また、道路によって複数のレーンが形成されている場合で、かつ、走行レーンが検出されている場合、前記経路探索処理手段は、レーン単位の探索経路を探索し、前記経路データには走行レーンを表すレーン番号等が含まれる。   When the destination and search conditions are set in this way, the route search processing means (not shown) of the CPU 31 performs route search processing, reads the current location, destination, search conditions, and the like from the data recording unit 16. Based on the current location, the destination, and the search data, a route from the departure point to the destination represented by the current location is searched based on the search condition, and route data representing the searched route is output. In this case, the route having the smallest total link cost assigned to each road link is set as the searched route. In addition, when a plurality of lanes are formed by a road and a traveling lane is detected, the route search processing means searches for a searched route for each lane, and the route data includes a traveling lane. The lane number and the like are included.

続いて、前記CPU31の図示されない案内処理手段は、案内処理を行い、運転者に対して経路案内を行う。そのために、前記案内処理手段の経路表示処理手段は、経路表示処理を行い、前記経路データを読み込み、該経路データに従って前記地図画面に探索経路を表示する。レーン単位の探索経路が探索されている場合は、所定の地点、例えば、案内交差点において、レーン単位の経路案内が行われ、交差点拡大図に経路案内がされている走行レーンが表示される。この場合、必要に応じて、前記案内処理手段の音声出力処理手段は、音声出力処理を行い、音声出力部37から探索経路を音声で出力して経路案内を行う。   Subsequently, a guidance processing means (not shown) of the CPU 31 performs guidance processing and provides route guidance to the driver. For this purpose, the route display processing means of the guidance processing means performs route display processing, reads the route data, and displays the searched route on the map screen according to the route data. When a search route for each lane is searched, route guidance for each lane is performed at a predetermined point, for example, a guidance intersection, and a travel lane for which route guidance is being performed is displayed in the enlarged intersection view. In this case, if necessary, the voice output processing means of the guidance processing means performs voice output processing and outputs a search route by voice from the voice output unit 37 to perform route guidance.

なお、情報センタ51において経路探索処理を行うことができる。その場合、CPU31は現在地、目的地、探索条件等を情報センタ51に送信する。該情報センタ51は、現在地、目的地、探索条件等を受信すると、CPU54の図示されない経路探索処理手段は、CPU31と同様の経路探索処理を行い、データベース58から探索データ等を読み出し、現在地、目的地及び探索データに基づいて、出発地から目的地までの経路を前記探索条件で探索し、探索経路を表す経路データを出力する。続いて、CPU54の図示されない送信処理手段は、送信処理を行い、前記経路データをナビゲーション装置14に送信する。したがって、ナビゲーション装置14において、前記基本情報取得処理手段が情報センタ51からの経路データを受信すると、前記案内処理手段は、前述されたような経路案内を行う。   The information center 51 can perform route search processing. In that case, the CPU 31 transmits the current location, the destination, search conditions, and the like to the information center 51. When the information center 51 receives the current location, destination, search conditions, etc., the route search processing means (not shown) of the CPU 54 performs route search processing similar to that of the CPU 31 and reads the search data from the database 58 to obtain the current location, destination. Based on the location and the search data, a route from the departure point to the destination is searched under the search conditions, and route data representing the searched route is output. Subsequently, a transmission processing unit (not shown) of the CPU 54 performs transmission processing and transmits the route data to the navigation device 14. Therefore, in the navigation device 14, when the basic information acquisition processing means receives the route data from the information center 51, the guidance processing means performs route guidance as described above.

そして、探索経路上に案内交差点が存在する場合、車両が案内交差点より所定の距離L1(例えば、X〔m〕)だけ手前の経路案内地点に到達すると、前記案内処理手段の交差点拡大図表示処理手段は、交差点拡大図表示処理を行い、地図画面の所定の領域に前述されたような交差点拡大図を形成し、該交差点拡大図による経路案内を行い、前記交差点拡大図に、案内交差点の周辺の地図、探索経路、案内交差点において目印になる施設等の陸標、レーン単位の経路案内が行われている場合には走行レーン等を表示する。また、前記音声出力処理手段は、音声出力部37に指示し、例えば、「この先X〔m〕で左方向です。」のような音声による経路案内を行う。   And when a guidance intersection exists on the searched route, when the vehicle reaches a route guidance point that is a predetermined distance L1 (for example, X [m]) from the guidance intersection, the intersection enlarged map display process of the guidance processing means is performed. The means performs an enlarged intersection map display process, forms an enlarged intersection map as described above in a predetermined area of the map screen, performs route guidance by the enlarged intersection map, and displays the vicinity of the guidance intersection in the enlarged intersection map. A map, a search route, a landmark such as a facility that serves as a landmark at a guidance intersection, and a route lane or the like are displayed when route guidance is provided for each lane. The voice output processing means instructs the voice output unit 37 to perform route guidance by voice, for example, “This is X [m] to the left”.

ところで、地物のうちの停止線、横断歩道、通行帯表示線、通行区分、路上標識等は、道路上にペイント等を塗装することによって形成され、塗装地物を構成する。したがって、塗装地物上を車両が繰り返し走行すると、塗装地物が擦れ、一部がかすれて欠損することがある。その場合、一部が欠損した塗装地物の画像に基づいて塗装地物を認識しようとすると、認識精度が低くなってしまう。   By the way, a stop line, a pedestrian crossing, a traffic zone display line, a traffic classification, a road sign, and the like among the features are formed by painting paint or the like on the road to constitute a painted feature. Therefore, when the vehicle repeatedly travels on the painted feature, the painted feature may be rubbed, and a part thereof may be faint and lost. In that case, if it is attempted to recognize the painted feature based on the image of the painted feature that is partially missing, the recognition accuracy is lowered.

その結果、交差点、踏切、横断歩道、走行レーン等を検出したり、現在地から交差点、踏切、横断歩道等までの距離を算出したりする精度が低くなってしまう。   As a result, the accuracy of detecting intersections, railroad crossings, pedestrian crossings, travel lanes, etc., and calculating the distance from the current location to intersections, railroad crossings, pedestrian crossings, etc. will be low.

そこで、本実施の形態においては、前記地物認識処理が行われる前に、CPU31の図示されない画像修正処理手段は、画像修正処理を行い、塗装地物の欠損しやすい部位について画像を修正し、塗装地物の認識精度を高くするようにしている。   Therefore, in the present embodiment, before the feature recognition process is performed, an image correction processing unit (not shown) of the CPU 31 performs an image correction process to correct an image of a portion where the painted feature is likely to be lost, The recognition accuracy of painted features is increased.

次に、塗装地物のうちの停止線の一部が欠損した場合について、前記画像修正処理手段の動作について説明する。   Next, the operation of the image correction processing means will be described in the case where a part of the stop line in the painted feature is missing.

図2は本発明の実施の形態における画像修正処理手段の動作を示す第1のフローチャート、図3は本発明の実施の形態における画像修正処理手段の動作を示す第2のフローチャート、図4は本発明の実施の形態における交差点を示す図、図5は本発明の実施の形態における交差点における走行軌跡を推測する方法を示す第1の図、図6は本発明の実施の形態における交差点における走行軌跡を推測する方法を示す第2の図である。   FIG. 2 is a first flowchart showing the operation of the image correction processing means in the embodiment of the present invention, FIG. 3 is a second flowchart showing the operation of the image correction processing means in the embodiment of the present invention, and FIG. The figure which shows the intersection in embodiment of invention, FIG. 5 is the 1st figure which shows the method of estimating the driving | running locus in the intersection in embodiment of this invention, FIG. 6 is driving | running locus in the intersection in embodiment of this invention It is a 2nd figure which shows the method of estimating.

図4及び5において、c1は交差点、r1、r2は該交差点c1で交差する道路、h1、h2は前記道路r1、r2のセンタライン、k1〜k3は道路r1の走行車線側のレーン、k4〜k6は道路r1の反対車線側のレーン、m1〜m3は道路r2の走行車線側のレーン、m4〜m6は道路r2の反対車線側のレーン、w1は自車である車両である。なお、車両w1は右折専用のレーンk3を走行していて、道路r1を走行し、交差点c1において右折し、道路r2を走行する。前記道路r1が進入道路となり、道路r2が退出道路となる。また、q1は交差点c1の手前に形成された停止線、s1は右折専用のレーンk3であることを矢印で表す通行区分である。   4 and 5, c1 is an intersection, r1 and r2 are roads intersecting at the intersection c1, h1 and h2 are center lines of the roads r1 and r2, k1 to k3 are lanes on the driving lane side of the road r1, and k4 to k6 is a lane on the opposite lane side of the road r1, m1 to m3 are lanes on the traveling lane side of the road r2, m4 to m6 are lanes on the opposite lane side of the road r2, and w1 is a vehicle that is the own vehicle. The vehicle w1 is traveling on a lane k3 dedicated to right turn, travels on the road r1, turns right on the intersection c1, and travels on the road r2. The road r1 is an approach road and the road r2 is an exit road. Further, q1 is a stop line formed before the intersection c1, and s1 is a traffic section indicated by an arrow indicating that the lane k3 is dedicated to a right turn.

本実施の形態においては、前記停止線q1が、認識の対象となる塗装地物、すなわち、対象地物となるが、前記停止線q1と同時に他の塗装地物を対象地物としたり、順次他の塗装地物を対象地物としたりすることができる。   In the present embodiment, the stop line q1 is a painted feature that is a recognition target, that is, a target feature. However, at the same time as the stop line q1, another painted feature is used as a target feature. Other painted features can be targeted.

まず、前記画像修正処理手段の画像修正条件判定処理手段は、画像修正条件判定処理を行い、第1の画像修正条件が成立しているかどうかをマッチング処理が行われているかどうかによって判断する。第1の画像修正条件が成立し、マッチング処理が行われている場合、前記画像修正条件判定処理手段は、GPSセンサ15(図1)によって検出された自車位置を読み込むとともに、対象地物情報としての地物データを、データ記録部16から読み出すことによって取得する。   First, the image correction condition determination processing means of the image correction processing means performs image correction condition determination processing, and determines whether or not the first image correction condition is satisfied depending on whether matching processing is performed. When the first image correction condition is satisfied and the matching process is performed, the image correction condition determination processing means reads the vehicle position detected by the GPS sensor 15 (FIG. 1) and the target feature information. The feature data is acquired by reading from the data recording unit 16.

次に、前記画像修正条件判定処理手段は、第2の画像修正条件が成立しているかどうかを対象地物が存在するかどうか地物データによって判断する。本実施の形態において、前記画像修正条件判定処理手段は、地物データを参照し、自車位置の周辺、すなわち、車両w1の前方の所定の範囲内に対象地物が存在するかどうか判断される。なお、本実施の形態においては、車両w1の前方に停止線q1が存在する。   Next, the image correction condition determination processing means determines whether or not the target feature exists based on the feature data as to whether or not the second image correction condition is satisfied. In the present embodiment, the image correction condition determination processing means refers to the feature data, and determines whether or not the target feature exists in the vicinity of the vehicle position, that is, in a predetermined range in front of the vehicle w1. The In the present embodiment, there is a stop line q1 in front of the vehicle w1.

第2の画像修正条件が成立し、本実施の形態のように停止線q1が存在する場合、前記画像修正処理手段の道路形状情報取得処理手段は、道路形状情報取得処理を行い、データ記録部16から地図データを読み出し、停止線q1の周辺の道路形状、本実施の形態においては、停止線q1を含む前後の道路r1、r2の形状、及びレーンk1〜k3、m1〜m3の構造を道路形状情報として取得する。続いて、前記画像修正処理手段の走行軌跡推測処理手段は、走行軌跡推測処理を行い、前記道路形状情報に基づいて、停止線q1上を車両が走行する際の定常的な走行軌跡を推測する。   When the second image correction condition is satisfied and the stop line q1 exists as in the present embodiment, the road shape information acquisition processing means of the image correction processing means performs road shape information acquisition processing, and the data recording unit The map data is read from 16 and the shape of the road around the stop line q1, in this embodiment, the shape of the roads r1 and r2 before and after the stop line q1 and the structure of the lanes k1 to k3 and m1 to m3 are roads. Acquired as shape information. Subsequently, the traveling locus estimation processing means of the image correction processing means performs traveling locus estimation processing, and estimates a steady traveling locus when the vehicle travels on the stop line q1 based on the road shape information. .

図5に示されるように、車両w1が右折専用のレーンk3を走行し、交差点c1で右折する場合、道路r2において、レーンm1〜m3のうちのレーンm3を走行すると推測され、レーンk3からレーンm3に至る湾曲する走行軌跡Rtが推測される。   As shown in FIG. 5, when the vehicle w1 travels on a lane k3 dedicated to a right turn and turns right at an intersection c1, it is assumed that the vehicle r1 travels on the lane m3 among the lanes m1 to m3 on the road r2, and the lane k3 A curved traveling locus Rt that reaches m3 is estimated.

次に、前記画像修正処理手段の修正部位算出処理手段は、修正部位算出処理を行い、前記走行軌跡Rtに基づいて、停止線q1の欠損している部位を、修正が必要になる部位、すなわち、修正部位として算出する。なお、図6において、t1、t2は、走行軌跡Rt上を車両が走行する際の、前輪が通過する軌跡であり、前輪が通過することによって、停止線q1は、部位p1、p2において欠損し、該部位p1、p2が修正部位として算出される。この場合、後輪が通過する軌跡について示されていないが、後輪が通過することによって、停止線q1は、部位p1、p2に隣接する部位において欠損し、該部位も修正部位として算出される。なお、前記部位p1、p2は、走行軌跡Rtに基づいて算出されるので、右折の場合、レーン内の右寄りに、左折の場合、レーン内の左寄りに算出される。   Next, the correction part calculation processing means of the image correction processing means performs a correction part calculation process, and based on the travel locus Rt, a part where the stop line q1 is missing is a part that needs to be corrected, that is, , Calculated as a corrected part. In FIG. 6, t1 and t2 are trajectories through which the front wheels pass when the vehicle travels on the travel trajectory Rt, and the stop line q1 is lost at the parts p1 and p2 as the front wheels pass. The parts p1 and p2 are calculated as corrected parts. In this case, although the trajectory through which the rear wheel passes is not shown, when the rear wheel passes, the stop line q1 is lost in a part adjacent to the parts p1 and p2, and the part is also calculated as a corrected part. . Note that the parts p1 and p2 are calculated based on the travel locus Rt, so that they are calculated to the right in the lane when making a right turn and to the left in the lane when making a left turn.

続いて、前記画像修正処理手段の擦れ推定パラメータ算出処理手段は、擦れ推定パラメータ算出処理を行い、車両走行指数に基づいて、修正部位における欠損の程度を表す擦れ推定パラメータを算出する。該推定パラメータは、欠損の程度が大きいほど大きく、欠損の程度が小さいほど小さくされる。なお、前記車両走行指数は、前記停止線q1上の車両の実績の走行度合い、又は想定される走行度合いを表す指数である。   Subsequently, the rubbing estimation parameter calculation processing means of the image correction processing means performs rubbing estimation parameter calculation processing, and calculates a rubbing estimation parameter representing the degree of defect in the correction portion based on the vehicle running index. The estimation parameter is larger as the degree of defect is larger, and is smaller as the degree of defect is smaller. The vehicle travel index is an index representing the actual travel degree of the vehicle on the stop line q1 or an assumed travel degree.

そのために、まず、前記擦れ推定パラメータ算出処理手段は、データ記録部16から道路データを読み出し、該道路データを参照して道路種別を取得し、道路種別に基づいて擦れ推定パラメータJを算出する。前記道路種別は、国道、県道、市町村道、細街路、高速道路等の道路の種別を表し、前記車両走行指数としての停止線q1上の想定される走行度合いを表す交通量を推定する際の指標となる。   For this purpose, first, the rubbing estimation parameter calculation processing means reads road data from the data recording unit 16, obtains a road type by referring to the road data, and calculates a rubbing estimation parameter J based on the road type. The road type represents a type of road such as a national road, a prefectural road, a municipal road, a narrow street, an expressway, and the like, and is used for estimating a traffic amount representing an assumed degree of travel on the stop line q1 as the vehicle travel index. It becomes an indicator.

本実施の形態においては、データ記録部16に図示されない擦れ推定パラメータマップが記録され、該擦れ推定パラメータマップにおいて、最も交通量が多い国道及び高速道路の擦れ推定パラメータJが最も大きくされ、次に交通量が多い県道の擦れ推定パラメータJが次に大きくされ、最も交通量が少ない市町村道及び細街路の擦れ推定パラメータJが最も小さくされる。   In the present embodiment, a rubbing estimation parameter map (not shown) is recorded in the data recording unit 16, and in the rubbing estimation parameter map, the rubbing estimation parameter J of the country road and the highway with the largest traffic volume is maximized. The rubbing estimation parameter J of the prefectural road with the largest traffic volume is then increased, and the rubbing estimation parameter J of the municipal road and the narrow street with the least traffic volume is minimized.

また、前記擦れ推定パラメータ算出処理手段は、データ記録部16から走行履歴データを読み出し、該走行履歴データを参照し、前記車両走行指数としての停止線q1上の交通量を判定し、車両の実績の走行度合いを表す交通量に基づいて擦れ推定パラメータJを算出することができる。さらに、車両の種類ごとの交通量を判定して擦れ推定パラメータJを算出することもできる。その場合、車両の種類が、トラック等のように総重量が大きいものほど擦れ推定パラメータJが大きくされ、車両の種類が、軽自動車等の総重量が小さいものほど擦れ推定パラメータJが小さくされる。   The rubbing estimation parameter calculation processing means reads the travel history data from the data recording unit 16, refers to the travel history data, determines the traffic volume on the stop line q1 as the vehicle travel index, and records the vehicle performance. The rubbing estimation parameter J can be calculated based on the traffic volume representing the degree of travel. Further, the rubbing estimation parameter J can be calculated by determining the traffic volume for each type of vehicle. In this case, the friction estimation parameter J is increased as the vehicle type is larger, such as a truck, and the friction estimation parameter J is decreased as the vehicle type is smaller, such as a light vehicle. .

続いて、前記擦れ推定パラメータ算出処理手段は、データ記録部16から走行履歴データを読み出し、該走行履歴データを参照し、前記車両走行指数としての停止線q1上における車両の走行実態を読み出し、該走行実態に基づいて擦れ推定パラメータSを算出する。   Subsequently, the rubbing estimation parameter calculation processing means reads the traveling history data from the data recording unit 16, refers to the traveling history data, reads the actual traveling state of the vehicle on the stop line q1 as the vehicle traveling index, The rubbing estimation parameter S is calculated based on the actual traveling condition.

前記走行実態は、交差点c1に隣接する道路リンクにおけるリンク所要時間、平均車速、車両w1の種類等を表し、他車が停止線q1に加える負荷を推定する際の指標となる。本実施の形態においては、前記擦れ推定パラメータマップにおいて、リンク所要時間が短いほど、また、平均車速が高いほど、擦れ推定パラメータSが大きくされ、リンク所要時間が長いほど、また、平均車速が低いほど、擦れ推定パラメータSが小さくされる。   The traveling actual state represents a link required time, an average vehicle speed, a type of the vehicle w1, and the like in a road link adjacent to the intersection c1, and serves as an index when estimating a load applied to the stop line q1 by another vehicle. In the present embodiment, in the rubbing estimation parameter map, the rubbing estimation parameter S is increased as the link required time is shorter and the average vehicle speed is higher, and the average vehicle speed is lower as the link required time is longer. As a result, the rubbing estimation parameter S is reduced.

続いて、前記擦れ推定パラメータ算出処理手段は、データ記録部16から統計データを読み出し、該統計データを参照し、前記車両走行指数としての停止線q1の塗り直し等の工事履歴を取得し、該工事履歴に基づいて擦れ推定パラメータKを算出する。   Subsequently, the rubbing estimation parameter calculation processing means reads statistical data from the data recording unit 16, refers to the statistical data, acquires a construction history such as repainting of the stop line q1 as the vehicle running index, A friction estimation parameter K is calculated based on the construction history.

前記工事履歴は、停止線q1がいつ補修されたか、及びその後の車両の想定される走行度合いを表し、停止線q1の寿命を推定する際の指標となる。本実施の形態においては、前記擦れ推定パラメータマップにおいて、補修された時期が現時点から遠いほど擦れ推定パラメータKが大きくされ、補修された時期が現時点から近いほど擦れ推定パラメータKが小さくされる。   The construction history represents when the stop line q1 has been repaired and the estimated traveling degree of the vehicle thereafter, and serves as an index for estimating the life of the stop line q1. In the present embodiment, in the rubbing estimation parameter map, the rubbing estimation parameter K is increased as the repaired time is farther from the current time, and the rubbing estimation parameter K is decreased as the repaired time is closer from the current time.

このように、擦れ推定パラメータJ、S、Kが算出されると、前記画像修正処理手段の修正度決定処理手段は、修正度決定処理を行い、擦れ推定パラメータJ、S、Kに基づいて画像の欠損を修正する度合い、すなわち、修正の精度を表す修正度ηを決定する。本実施の形態においては、擦れ推定パラメータJ、S、Kを加算することによって総擦れ推定パラメータYが算出され、前記修正度決定処理手段は、総擦れ推定パラメータYが大きいほど、画像の欠損が大きいので、修正度ηを大きくして修正の精度を高くし、総擦れ推定パラメータYが小さいほど、画像の欠損が小さいので、修正度ηを小さくして修正の精度を低くする。他の実施の形態においては、前記擦れ推定パラメータJ、S、Kのうちの一つ、又は二つに基づいて修正度ηを変更することができる。   Thus, when the rubbing estimation parameters J, S, and K are calculated, the correction degree determination processing means of the image correction processing means performs the correction degree determination processing, and the image is calculated based on the rubbing estimation parameters J, S, and K. The degree of correction of the deficiency, i.e., the correction degree η representing the correction accuracy is determined. In the present embodiment, the total rubbing estimation parameter Y is calculated by adding the rubbing estimation parameters J, S, and K, and the correction degree determination processing means increases the total rubbing estimation parameter Y so that the image loss becomes larger. Since it is large, the correction degree η is increased to increase the correction accuracy. The smaller the total rubbing estimation parameter Y is, the smaller the image loss is. Therefore, the correction degree η is decreased to reduce the correction accuracy. In another embodiment, the correction degree η can be changed based on one or two of the rubbing estimation parameters J, S, and K.

本実施の形態においては、停止線q1上の交通量を推定する際の指標として、道路種別が使用されるようになっているが、他の実施の形態においては、道路交通センサスによる交通量を使用することができる。また、停止線q1に加わる負荷を推定する際の指標として、走行履歴データのリンク所要時間、平均車速等が使用されるようになっているが、他の実施の形態においては、現況の交通情報のリンク所要時間、平均車速等を使用することができる。   In this embodiment, the road type is used as an index for estimating the traffic volume on the stop line q1, but in other embodiments, the traffic volume based on the road traffic census is used. Can be used. Further, as an index for estimating the load applied to the stop line q1, the link required time of the travel history data, the average vehicle speed, and the like are used. In other embodiments, the current traffic information Link duration, average vehicle speed, etc. can be used.

そして、本実施の形態においては、他車の走行履歴データに基づいて擦れ推定パラメータSを算出するようになっているが、自車の走行履歴データに基づいて擦れ推定パラメータSを算出することもできる。   In this embodiment, the friction estimation parameter S is calculated based on the travel history data of the other vehicle. However, the friction estimation parameter S may be calculated based on the travel history data of the own vehicle. it can.

続いて、前記画像修正処理手段のエッジ検出処理手段は、エッジ検出処理を行い、前記カメラ49から送られた画像データを読み込み、所定のエッジ検出オペレータを使用して画像データに対する演算を行い、停止線q1のエッジを検出する。   Subsequently, the edge detection processing means of the image correction processing means performs edge detection processing, reads the image data sent from the camera 49, performs an operation on the image data using a predetermined edge detection operator, and stops. The edge of the line q1 is detected.

図7は本発明の実施の形態におけるエッジ検出処理の第1の例を示す図、図8は本発明の実施の形態におけるエッジ検出処理の第2の例を示す図である。   FIG. 7 is a diagram showing a first example of edge detection processing in the embodiment of the present invention, and FIG. 8 is a diagram showing a second example of edge detection processing in the embodiment of the present invention.

図において、Q1は画像データによって構成される原画像、q1は停止線であり、該停止線q1は、水平方向、すなわち、x軸方向のエッジqx1、qx2及び垂直方向、すなわち、y軸方向のエッジqy1、qy2を備える。また、p11〜p13は欠損した部位である。部位p11においては、二つの軸方向、すなわち、x軸方向のエッジqx2及びy軸方向のエッジqy2において欠損しており、部位p12、p13においては、一つの軸方向、すなわち、x軸方向のエッジqx1、qx2において欠損している。   In the figure, Q1 is an original image composed of image data, q1 is a stop line, and the stop line q1 is horizontal, that is, edges qx1 and qx2 in the x-axis direction and vertical direction, that is, in the y-axis direction. Edges qy1 and qy2 are provided. Further, p11 to p13 are missing sites. The part p11 is missing in two axial directions, that is, the edge qx2 in the x-axis direction and the edge qy2 in the y-axis direction, and in the parts p12 and p13, one axial direction, that is, an edge in the x-axis direction. It is deficient in qx1 and qx2.

そして、前記エッジ検出処理手段は、まず、前記原画像Q1において3×3のマトリックスの画素を読み込み、中心をエッジ検出処理の対象画素とし、近傍の画素を前記エッジ検出オペレータに従って走査演算を行い、エッジ(画素間の微分値)を増幅する。   Then, the edge detection processing means first reads a pixel of a 3 × 3 matrix in the original image Q1, sets the center as a target pixel for edge detection processing, performs a scanning operation on neighboring pixels according to the edge detection operator, Amplify edges (differential value between pixels).

ところで、前記エッジ検出オペレータには、Sobelオペレータ、Prewittオペレータ、Robertsオペレータ等のオペレータがあり、Sobelオペレータは式(1)で示される3×3のマトリックスhx、hyで表され、Prewittオペレータは式(2)で示される3×3のマトリックスhx、hyで表され、Robertsオペレータは式(3)で示される3×3のマトリックスhx、hyで表される。   By the way, the edge detection operators include operators such as a Sobel operator, a Prewitt operator, and a Roberts operator. The Sobel operator is represented by a 3 × 3 matrix hx, hy expressed by Formula (1), and the Prewitt operator is represented by Formula ( The Roberts operator is represented by the 3 × 3 matrix hx, hy represented by the equation (3).

Figure 0004774807
そして、いずれのオペレータを使用する場合も、前記エッジ検出処理手段は、マトリックスhx、hyを原画像Q1のマトリックスに掛け合わせ、合計の絶対値を算出する。続いて、前記エッジ検出処理手段は、前記絶対値を所定の閾(しきい)値と比較して2値化を行い、絶対値が閾値より大きい対象画素をエッジとする。前記マトリックスhx、hyは、互いに90〔°〕回転させたマトリックスであり、前記絶対値の大きい方のマトリックスが採用される。
Figure 0004774807
When any operator is used, the edge detection processing unit multiplies the matrices hx and hy with the matrix of the original image Q1 to calculate the absolute value of the total. Subsequently, the edge detection processing unit compares the absolute value with a predetermined threshold (threshold value) to perform binarization, and sets a target pixel having an absolute value larger than the threshold as an edge. The matrices hx and hy are matrices rotated by 90 ° with respect to each other, and the matrix having the larger absolute value is employed.

各オペレータは、エッジの種類に応じて使用され、Sobelオペレータ及びPrewittオペレータは、マトリックスhxによってy軸方向のエッジqy1、qy2に強く反応し(絶対値が大きくなり)、マトリックスhyによってx軸方向のエッジqx1、qx2に強く反応する。これに対して、Robertsオペレータは斜めに延びるエッジに強く反応する。   Each operator is used according to the type of edge. The Sobel operator and the Prewitt operator react strongly to the edges qy1 and qy2 in the y-axis direction by the matrix hx (the absolute value increases), and the x-axis direction by the matrix hy. It reacts strongly to the edges qx1 and qx2. In contrast, the Roberts operator reacts strongly to diagonally extending edges.

このようにして、停止線q1のエッジqx1、qx2、qy1、qy2が検出されると、前記画像修正処理手段の補間処理手段は、補間処理を行い、前記修正部位の画像の欠損を修正する。そのために、前記補間処理手段は、停止線q1のエッジqx1、qx2、qy1、qy2を構成する画像データを読み込み、該画像データに従ってエッジ補間を行う。該エッジ補間の方法には、各種の方法があり、本実施の形態においては、ハフ変換が使用される。   In this way, when the edges qx1, qx2, qy1, qy2 of the stop line q1 are detected, the interpolation processing means of the image correction processing means performs an interpolation process, and corrects a defect in the image of the correction site. For this purpose, the interpolation processing means reads image data constituting the edges qx1, qx2, qy1, qy2 of the stop line q1, and performs edge interpolation according to the image data. There are various edge interpolation methods, and in this embodiment, Hough transform is used.

次に、該ハフ変換について説明する。   Next, the Hough transform will be described.

図9は本発明の実施の形態におけるX−Yパラメータ空間を示す図、図10は本発明の実施の形態におけるa−bパラメータ空間を示す図である。なお、図7において、横軸にY座標を、縦軸にX座標を採ってあり、図8において、横軸にb座標を、縦軸にa座標を採ってある。   FIG. 9 is a diagram showing an XY parameter space in the embodiment of the present invention, and FIG. 10 is a diagram showing an ab parameter space in the embodiment of the present invention. In FIG. 7, the horizontal axis represents the Y coordinate, the vertical axis represents the X coordinate, and in FIG. 8, the horizontal axis represents the b coordinate and the vertical axis represents the a coordinate.

X−Yパラメータ空間(座標系)の直線Ln1の各点の座標を(x1,y1)とし、傾きをa1とし、切片をb1とすると、
y1=a1・x1+b1 ……(4)
になる。
If the coordinates of each point of the straight line Ln1 in the XY parameter space (coordinate system) are (x1, y1), the slope is a1, and the intercept is b1,
y1 = a1 · x1 + b1 (4)
become.

該式(4)をa−bパラメータ空間にパラメータ変換(座標変換)すると、
a=(b−y1)/x1 ……(5)
になり、X−Yパラメータ空間で点(例えば、点PA)で表されるものが、a−bパラメータ空間では直線(例えば、直線LA1)として表される。そして、例えば、前記直線Ln1が補間処理を行う対象となるエッジqx1(図7)である場合、直線Ln1の各点は、エッジqx1を構成する各エッジ点となる。
When the equation (4) is subjected to parameter conversion (coordinate conversion) into the ab parameter space,
a = (b−y1) / x1 (5)
What is represented by a point (for example, point PA) in the XY parameter space is represented as a straight line (for example, straight line LA1) in the ab parameter space. For example, when the straight line Ln1 is the edge qx1 (FIG. 7) to be subjected to the interpolation processing, each point of the straight line Ln1 becomes each edge point constituting the edge qx1.

前記エッジqx1上のすべてのエッジ点について前記パラメータ変換を行うと、a−bパラメータ空間上の交点(a1,b1)で各エッジ点に対応する各直線が交差することになる。したがって、エッジqx1上において欠損している部位p11の各エッジ点に対応する各直線を想定したとき、該各直線も前記交点(a1,b1)で交差することになる。   When the parameter conversion is performed on all edge points on the edge qx1, the straight lines corresponding to the edge points intersect at the intersection (a1, b1) on the ab parameter space. Therefore, when each straight line corresponding to each edge point of the missing part p11 on the edge qx1 is assumed, the straight lines also intersect at the intersection (a1, b1).

前記ハフ変換は、この幾何学的な特性を利用したエッジ補間の方法であり、前記補間処理手段は、想定された直線を逆にX−Yパラメータ空間にパラメータ変換し、部位p11の各エッジ点を算出する。   The Hough transform is an edge interpolation method using this geometric characteristic, and the interpolation processing means reversely converts an assumed straight line into an XY parameter space and converts each edge point of the part p11. Is calculated.

なお、前記交点(a1,b1)を算出するために、前記a−bパラメータ空間が複数のセルに分割される。そして、前記各直線がa−bパラメータ空間上で形成されるたびに、各セルのカウント値(投票値)がインクリメントされ、カウント値が閾値より大きいセルの座標が前記交点(a1,b1)として算出される。   In order to calculate the intersection (a1, b1), the ab parameter space is divided into a plurality of cells. Each time each straight line is formed on the ab parameter space, the count value (voting value) of each cell is incremented, and the coordinates of the cell whose count value is greater than the threshold are the intersection points (a1, b1). Calculated.

このようにして、前記補間処理手段は、部位p11の各エッジ点を算出し、エッジqx2を補間する。   In this way, the interpolation processing means calculates each edge point of the part p11 and interpolates the edge qx2.

この場合、前記セルの大きさ、すなわち、セルサイズが小さくされると、カウント値が大きくなる速度が低くなり、カウント値が前記閾値より大きくなるまでの時間が長くなるが、エッジを構成する線を特定するのが容易になり、画像の修正の精度を高くすることができる。これに対して、セルサイズが大きくされると、カウント値が大きくなる速度が高くなり、カウント値が前記閾値より大きくなるまでの時間が短くなるが、エッジを構成する線を特定するのが困難になり、画像の修正の精度が低くなる。   In this case, if the size of the cell, that is, the cell size is reduced, the speed at which the count value increases is reduced, and the time until the count value becomes greater than the threshold value increases. Can be easily specified, and the accuracy of image correction can be increased. On the other hand, when the cell size is increased, the speed at which the count value increases is increased, and the time until the count value becomes larger than the threshold value is shortened, but it is difficult to specify the lines constituting the edge. Thus, the accuracy of image correction is reduced.

そこで、本実施の形態においては、前記セルサイズの逆数に所定の係数を乗算した値が修正度ηにされる。したがって、前記修正度決定処理手段は、総擦れ推定パラメータYが大きいほど、セルサイズを小さくして修正の精度を高くし、総擦れ推定パラメータYが小さいほど、セルサイズを大きくして修正の精度を低くする。   Therefore, in the present embodiment, a value obtained by multiplying the reciprocal of the cell size by a predetermined coefficient is set as the correction degree η. Therefore, the correction degree determination processing means increases the correction accuracy by decreasing the cell size as the total rubbing estimation parameter Y is larger, and increases the cell size as the total rubbing estimation parameter Y is smaller. Lower.

なお、他の実施の形態においては、セルサイズを変更することなく、閾値を変更することができる。この場合、閾値を小さくすると、a−bパラメータ空間上で形成される直線の数が少なくても、エッジ補間を行うことができるようになるので、エッジ補間を行うことができる可能性を高くすることができる。また、例えば、総擦れ推定パラメータYが小さく、画像の欠損が小さい場合に、閾値を大きくすると、a−bパラメータ空間上で形成される直線の数を多くすることができるようになるので、ノイズを拾うのを防止することができる。   In other embodiments, the threshold value can be changed without changing the cell size. In this case, if the threshold value is decreased, edge interpolation can be performed even if the number of straight lines formed on the ab parameter space is small, so that the possibility of performing edge interpolation is increased. be able to. In addition, for example, when the total rubbing estimation parameter Y is small and the image loss is small, increasing the threshold value can increase the number of straight lines formed on the ab parameter space. Can be picked up.

ところで、前記X−Yパラメータ空間においては、傾きa1及び切片b1は、いずれも、(−∞、+∞)の値をとってしまうので、X−Yパラメータ空間からρ−θパラメータ空間への変換が行われる。   By the way, in the XY parameter space, the slope a1 and the intercept b1 both take values of (−∞, + ∞), so that the conversion from the XY parameter space to the ρ-θ parameter space is performed. Is done.

図11は本発明の実施の形態におけるρ−θパラメータ空間を示す図である。なお、図において、横軸にθ座標を、縦軸にρ座標を採ってある。   FIG. 11 is a diagram showing a ρ-θ parameter space in the embodiment of the present invention. In the figure, the horizontal axis represents the θ coordinate, and the vertical axis represents the ρ coordinate.

この場合、X−Yパラメータ空間で直線Ln1(図9)の各点(例えば、点PA)で表されるものが、ρ−θパラメータ空間では曲線(例えば、曲線LA2)で表される。なお、各曲線の式は、
ρ=x・cosθ+y・sinθ
で表される。
In this case, what is represented by each point (for example, point PA) of the straight line Ln1 (FIG. 9) in the XY parameter space is represented by a curve (for example, curve LA2) in the ρ-θ parameter space. The equation for each curve is
ρ = x · cos θ + y · sin θ
It is represented by

ところで、図7に示されるような、部位p11においては、x軸方向のエッジqx2及びy軸方向のエッジqy2において欠損しているので、マトリックスhx、hyを使用してx軸方向及びy軸方向においてエッジ検出処理を行うのが好ましい。   By the way, in the part p11 as shown in FIG. 7, since it is missing at the edge qx2 in the x-axis direction and the edge qy2 in the y-axis direction, the x-axis direction and the y-axis direction are used using the matrices hx and hy. It is preferable to perform edge detection processing in step (b).

これに対して、部位p12、p13においては、x軸方向だけのエッジqx1、qx2において欠損しているとともに、エッジqx1、qx2間を部位p12、p13が貫通している。したがって、仮に、x軸方向及びy軸方向においてエッジ検出処理を行うと、本来存在しないエッジを誤って無用に検出してしまうことがある。   On the other hand, the parts p12 and p13 are missing at the edges qx1 and qx2 only in the x-axis direction, and the parts p12 and p13 penetrate between the edges qx1 and qx2. Therefore, if edge detection processing is performed in the x-axis direction and the y-axis direction, an edge that does not exist may be erroneously detected unnecessarily.

そこで、前記エッジ検出処理手段によるエッジ検出処理が開始される前に、前記画像修正処理手段のエッジ検出方向判定処理手段は、エッジ検出方向判定処理を行い、走行軌跡Rtを読み込み、走行軌跡Rtに基づいて、部位p11〜p13において欠損しているエッジqx1、qx2、qy1、qy2の方向を判定し、該方向をエッジ検出方向とする。   Therefore, before the edge detection processing by the edge detection processing means is started, the edge detection direction determination processing means of the image correction processing means performs the edge detection direction determination processing, reads the travel locus Rt, and reads the travel locus Rt. Based on this, the direction of the edge qx1, qx2, qy1, qy2 missing in the parts p11 to p13 is determined, and this direction is set as the edge detection direction.

そして、前記エッジ検出処理手段は、エッジ検出方向判定処理の判定結果に基づいてエッジ検出処理を行い、エッジ検出方向を読み込み、エッジ検出方向がx軸方向及びy軸方向である場合、x軸方向及びy軸方向においてエッジ検出処理を行い、エッジ検出方向がx軸方向である場合、x軸方向においてエッジ検出処理を行い、エッジ検出方向がy軸方向である場合、y軸方向においてエッジ検出処理を行う。   The edge detection processing means performs edge detection processing based on the determination result of the edge detection direction determination processing, reads the edge detection direction, and when the edge detection directions are the x-axis direction and the y-axis direction, the x-axis direction When the edge detection direction is the x-axis direction, the edge detection process is performed. When the edge detection direction is the y-axis direction, the edge detection process is performed in the y-axis direction. I do.

また、前記補間処理手段は、x軸方向及びy軸方向においてエッジ検出処理が行われた場合、x軸方向及びy軸方向のエッジを補間し、x軸方向においてエッジ検出処理が行われた場合、x軸方向のエッジを補間し、y軸方向においてエッジ検出処理が行われた場合、y軸方向のエッジを補間する。   The interpolation processing means interpolates edges in the x-axis direction and y-axis direction when edge detection processing is performed in the x-axis direction and y-axis direction, and when edge detection processing is performed in the x-axis direction. When the edge detection process is performed in the y-axis direction, the edge in the y-axis direction is interpolated.

このように、停止線q1が存在する場合に、車両の走行軌跡Rtが推測され、修正部位が算出され、該修正部位における画像を修正し、修正された画像の画像データと地物データとを照合するので、画像認識の精度を高くすることができる。したがって、停止線q1の認識精度を高くすることができる。   As described above, when the stop line q1 exists, the travel locus Rt of the vehicle is estimated, the corrected part is calculated, the image at the corrected part is corrected, and the image data and the feature data of the corrected image are obtained. Since collation is performed, the accuracy of image recognition can be increased. Therefore, the recognition accuracy of the stop line q1 can be increased.

その結果、交差点c1を検出したり、交差点c1までの距離を算出したりする精度を高くすることができる。   As a result, the accuracy of detecting the intersection c1 and calculating the distance to the intersection c1 can be increased.

また、本実施の形態においては、車両の走行軌跡Rtが推測され、走行軌跡Rtに基づいて欠損方向が判定され、判定結果に基づいて、欠損方向においてエッジ検出処理が行われ、補間処理が行われるので、補間を安定させて行うことができるだけでなく、画像修正処理に必要な処理時間を短くすることができる。   In the present embodiment, the travel locus Rt of the vehicle is estimated, the missing direction is determined based on the travel locus Rt, the edge detection process is performed in the missing direction based on the determination result, and the interpolation process is performed. Therefore, not only can the interpolation be performed stably, but also the processing time required for the image correction process can be shortened.

次に、フローチャートについて説明する。
ステップS1 マッチング処理が行われるのを待機する。
ステップS2 地物データを取得する。
ステップS3 対象地物が存在するかどうかを判断する。対象地物が存在する場合はステップS4に進み、存在しない場合はステップS1に戻る。
ステップS4 対象地物の周辺の道路形状情報を取得する。
ステップS5 車両の走行ラインを推測する。
ステップS6 対象地物の補間部位を算出する。
ステップS7 道路種別を取得し、擦れ推定パラメータJを算出する。
ステップS8 走行履歴データを読み出す。
ステップS9 リンク所要時間、平均車速等から擦れ推定パラメータSを算出する。
ステップS10 対象地物の工事履歴情報を取得し、擦れ推定パラメータKを算出する。
ステップS11 各擦れ推定パラメータJ、S、Kに基づいて修正度ηを決定する。
ステップS12 補間処理を行い、処理を終了する。
Next, a flowchart will be described.
Step S1: Wait for the matching process to be performed.
Step S2: Obtain feature data.
Step S3: Determine whether the target feature exists. If the target feature exists, the process proceeds to step S4. If the target feature does not exist, the process returns to step S1.
Step S4: Obtain road shape information around the target feature.
Step S5 Estimate the travel line of the vehicle.
Step S6: An interpolation part of the target feature is calculated.
Step S7: The road type is acquired, and the rubbing estimation parameter J is calculated.
Step S8 Read travel history data.
Step S9 The rubbing estimation parameter S is calculated from the link required time, the average vehicle speed, and the like.
Step S10: Obtain construction history information of the target feature and calculate a friction estimation parameter K.
Step S11: The correction degree η is determined based on each rubbing estimation parameter J, S, K.
Step S12: Interpolation processing is performed and the processing is terminated.

本実施の形態においては、修正部位が算出され、該修正部位の画像の欠損を、擦れ推定パラメータJ、S、Kに基づいて決定された修正度ηによって修正し、修正された画像の画像データと地物データとを照合して地物を認識するようになっているが、他の実施の形態においては、修正部位算出処理手段によって修正部位が算出されると、CPU31の図示されない地物データ修正処理手段は、地物データ修正処理を行い、前記地物データにおける修正部位に対応する箇所を修正し、欠損させることができる。その場合、前記地物認識処理手段は、画像データと修正された地物データとを照合することによって地物を認識する。したがって、地物の認識精度を高くすることができる。   In the present embodiment, a corrected part is calculated, and a defect in the image of the corrected part is corrected by a correction degree η determined based on the rubbing estimation parameters J, S, K, and image data of the corrected image However, in another embodiment, when the corrected portion is calculated by the corrected portion calculation processing means, the feature data (not shown) of the CPU 31 is recognized. The correction processing means can perform feature data correction processing to correct and delete a portion corresponding to the corrected portion in the feature data. In that case, the feature recognition processing means recognizes the feature by comparing the image data with the corrected feature data. Therefore, the recognition accuracy of the feature can be increased.

また、更に他の実施の形態においては、修正部位算出処理手段によって修正部位が算出されると、前記地物認識処理手段は、画像データと地物データとを照合する際に、修正部位については照合の一致度を変更し、それ以外の部位については、照合の一致度を変更することなく照合する。この場合、一致度とは、画像データと地物データとが一致したとみなす程度を表し、総擦れ推定パラメータYが大きいほど一致度は低くなる。そこで、前記地物認識処理手段は、修正部位については照合の一致度を低くし、それ以外の部位については、照合の一致度を変更することなく照合する。したがって、地物の認識精度を高くすることができる。   In still another embodiment, when the corrected portion is calculated by the corrected portion calculation processing means, the feature recognition processing means determines the correction portion when comparing the image data with the feature data. The matching degree of matching is changed, and other parts are matched without changing the matching degree. In this case, the degree of coincidence represents the degree to which the image data and the feature data are regarded as coincident, and the degree of coincidence decreases as the total rubbing estimation parameter Y increases. Therefore, the feature recognition processing means lowers the matching degree of matching for the corrected part, and collates the other parts without changing the matching degree. Therefore, the recognition accuracy of the feature can be increased.

また、更に他の実施の形態においては、修正部位算出処理手段によって修正部位が算出されると、修正部位については画像データと地物データとの照合を行わないようにすることができる。したがって、地物の認識精度を高くすることができる。   In yet another embodiment, when the corrected portion is calculated by the corrected portion calculation processing means, the image data and the feature data can not be collated for the corrected portion. Therefore, the recognition accuracy of the feature can be increased.

なお、本発明は前記実施の形態に限定されるものではなく、本発明の趣旨に基づいて種々変形させることが可能であり、それらを本発明の範囲から排除するものではない。   In addition, this invention is not limited to the said embodiment, It can change variously based on the meaning of this invention, and does not exclude them from the scope of the present invention.

本発明の実施の形態におけるナビゲーションシステムを示す図である。It is a figure which shows the navigation system in embodiment of this invention. 本発明の実施の形態における画像修正処理手段の動作を示す第1のフローチャートである。It is a 1st flowchart which shows operation | movement of the image correction process means in embodiment of this invention. 本発明の実施の形態における画像修正処理手段の動作を示す第2のフローチャートである。It is a 2nd flowchart which shows operation | movement of the image correction process means in embodiment of this invention. 本発明の実施の形態における交差点を示す図である。It is a figure which shows the intersection in embodiment of this invention. 本発明の実施の形態における交差点における走行軌跡を推測する方法を示す第1の図である。It is a 1st figure which shows the method of estimating the traveling locus in the intersection in embodiment of this invention. 本発明の実施の形態における交差点における走行軌跡を推測する方法を示す第2の図である。It is a 2nd figure which shows the method of estimating the driving | running | working locus | trajectory in the intersection in embodiment of this invention. 本発明の実施の形態におけるエッジ検出処理の第1の例を示す図である。It is a figure which shows the 1st example of the edge detection process in embodiment of this invention. 本発明の実施の形態におけるエッジ検出処理の第2の例を示す図である。It is a figure which shows the 2nd example of the edge detection process in embodiment of this invention. 本発明の実施の形態におけるX−Yパラメータ空間を示す図である。It is a figure which shows XY parameter space in embodiment of this invention. 本発明の実施の形態におけるa−bパラメータ空間を示す図である。It is a figure which shows the ab parameter space in embodiment of this invention. 本発明の実施の形態におけるρ−θパラメータ空間を示す図である。It is a figure which shows (rho) -theta parameter space in embodiment of this invention.

符号の説明Explanation of symbols

31 CPU
p1、p2 部位
q1 停止線
Rt 走行軌跡
31 CPU
p1, p2 part q1 stop line Rt travel locus

Claims (10)

地物を撮影する撮影装置と、
撮影された画像の修正の対象となる対象地物上を車両が走行する際の、前記対象地物の周辺の道路の道路形状情報に基づく定常的な走行軌跡を推測する走行軌跡推測処理手段と、
推測された走行軌跡に基づいて、対象地物における撮影された画像の修正部位を算出する修正部位算出処理手段と、
前記対象地物上の車両走行指数に基づいて、算出された修正部位における画像の欠損の程度を表す擦れ推定パラメータを算出する擦れ推定パラメータ算出処理手段と、
算出された擦れ推定パラメータに基づいて、前記修正部位の画像の欠損を修正する補間処理手段とを有することを特徴とする画像修正装置
A photographing device for photographing features;
A travel locus estimation processing means for estimating a steady travel locus based on road shape information of a road around the target feature when the vehicle travels on the target feature to be corrected of the captured image; ,
A corrected part calculation processing means for calculating a corrected part of a captured image of the target feature based on the estimated traveling locus;
A rubbing estimation parameter calculation processing means for calculating a rubbing estimation parameter representing the degree of image loss at the calculated corrected portion based on the vehicle running index on the target feature;
An image correction apparatus comprising: an interpolation processing unit that corrects a defect in the image of the corrected region based on the calculated friction estimation parameter .
記車両走行指数は、対象地物上の交通量である請求項に記載の画像修正装置。 Before Symbol vehicles traveling index image correction apparatus according to claim 1 which is traffic on the target feature. 前記車両走行指数は、対象地物上の車両の走行実態である請求項に記載の画像修正装置。 The image correction apparatus according to claim 1 , wherein the vehicle traveling index is a traveling actual state of the vehicle on the target feature. 前記車両走行指数は、対象地物の工事履歴である請求項に記載の画像修正装置。 The image correction apparatus according to claim 1 , wherein the vehicle travel index is a construction history of the target feature. 前記擦れ推定パラメータに基づいて補間処理の修正度を決定する修正度決定処理手段を有する請求項に記載の画像修正装置。 The image correction apparatus according to claim 1 , further comprising a correction degree determination processing unit that determines a correction degree of the interpolation processing based on the rubbing estimation parameter. 前記走行軌跡に基づいて、対象地物のエッジ検出方向を判定するエッジ検出方向判定処理手段を有するとともに、
前記補間処理手段は、エッジ検出方向において前記修正部位の画像の欠損を修正する請求項1に記載の画像修正装置。
While having an edge detection direction determination processing means for determining the edge detection direction of the target feature based on the travel locus,
The image correction apparatus according to claim 1, wherein the interpolation processing unit corrects a defect in the image of the correction site in an edge detection direction.
地物を撮影する撮影装置と、
撮影された画像の修正の対象となる対象地物上を車両が走行する際の、前記対象地物の周辺の道路の道路形状情報に基づく定常的な走行軌跡を推測する走行軌跡推測処理手段と、
推測された走行軌跡に基づいて、対象地物における撮影された画像の修正部位を算出する修正部位算出処理手段と、
前記対象地物上の車両走行指数に基づいて、算出された修正部位における画像の欠損の程度を表す擦れ推定パラメータを算出する擦れ推定パラメータ算出処理手段と、
算出された擦れ推定パラメータに基づいて、前記修正部位における地物を認識する地物認識処理手段とを有することを特徴とする地物認識装置。
A photographing device for photographing features;
A travel locus estimation processing means for estimating a steady travel locus based on road shape information of a road around the target feature when the vehicle travels on the target feature to be corrected of the captured image; ,
A corrected part calculation processing means for calculating a corrected part of a captured image of the target feature based on the estimated traveling locus;
A rubbing estimation parameter calculation processing means for calculating a rubbing estimation parameter representing the degree of image loss at the calculated corrected portion based on the vehicle running index on the target feature;
Based on the calculated rubbed estimated parameter, feature recognition apparatus characterized by having a feature recognition processing means for recognizing a feature of definitive to the modification site.
地物データが記録された記録部と、
地物を撮影する撮影装置と、
撮影された画像の修正の対象となる対象地物上を車両が走行する際の、前記対象地物の周辺の道路の道路形状情報に基づく定常的な走行軌跡を推測する走行軌跡推測処理手段と、
推測された走行軌跡に基づいて、対象地物における撮影された画像の修正部位を算出する修正部位算出処理手段と、
前記地物データにおける修正部位に対応する箇所を修正する地物データ修正処理手段と、
修正された地物データと画像データとを照合することによって地物を認識する地物認識処理手段とを有することを特徴とする地物認識装置。
A recording section in which the feature data is recorded;
A photographing device for photographing features;
A travel locus estimation processing means for estimating a steady travel locus based on road shape information of a road around the target feature when the vehicle travels on the target feature to be corrected of the captured image; ,
A corrected part calculation processing means for calculating a corrected part of a captured image of the target feature based on the estimated traveling locus;
Feature data correction processing means for correcting a location corresponding to the correction site in the feature data;
A feature recognition apparatus comprising: feature recognition processing means for recognizing a feature by comparing the corrected feature data with image data.
地物データが記録された記録部と、
地物を撮影する撮影装置と、
撮影された画像の修正の対象となる対象地物上を車両が走行する際の、前記対象地物の周辺の道路の道路形状情報に基づく定常的な走行軌跡を推測する走行軌跡推測処理手段と、
推測された走行軌跡に基づいて、対象地物における撮影された画像の修正部位を算出する修正部位算出処理手段と、
前記修正部位について一致度を変更し、地物データと画像データとを照合することによって地物を認識する地物認識処理手段とを有することを特徴とする地物認識装置。
A recording section in which the feature data is recorded;
A photographing device for photographing features;
A travel locus estimation processing means for estimating a steady travel locus based on road shape information of a road around the target feature when the vehicle travels on the target feature to be corrected of the captured image; ,
A corrected part calculation processing means for calculating a corrected part of a captured image of the target feature based on the estimated traveling locus;
A feature recognition apparatus comprising: a feature recognition processing means for recognizing a feature by changing the degree of coincidence of the correction portion and comparing the feature data with image data.
撮影装置によって地物を撮影し、
撮影された画像の修正の対象となる対象地物上を車両が走行する際の、前記対象地物の周辺の道路の道路形状情報に基づく定常的な走行軌跡を推測し、
推測された走行軌跡に基づいて、対象地物における撮影された画像の修正部位を算出し、
前記対象地物上の車両走行指数に基づいて、算出された修正部位における画像の欠損の程度を表す擦れ推定パラメータを算出し、
算出された擦れ推定パラメータに基づいて、前記修正部位における地物を認識することを特徴とする地物認識方法。
Take a picture of a feature with a photographic device,
When a vehicle travels on a target feature that is a target of correction of a captured image , a steady traveling locus based on road shape information of a road around the target feature is estimated,
Based on the estimated travel trajectory, calculate the corrected part of the captured image of the target feature,
Based on the vehicle running index on the target feature, to calculate a rubbing estimation parameter representing the degree of image loss in the calculated correction site,
Based on the calculated rubbed estimated parameters, the feature recognition method and recognizes the feature of definitive to the modification site.
JP2005153425A 2005-05-26 2005-05-26 Image correction device, feature recognition device, and feature recognition method Expired - Fee Related JP4774807B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005153425A JP4774807B2 (en) 2005-05-26 2005-05-26 Image correction device, feature recognition device, and feature recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005153425A JP4774807B2 (en) 2005-05-26 2005-05-26 Image correction device, feature recognition device, and feature recognition method

Publications (2)

Publication Number Publication Date
JP2006331058A JP2006331058A (en) 2006-12-07
JP4774807B2 true JP4774807B2 (en) 2011-09-14

Family

ID=37552685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005153425A Expired - Fee Related JP4774807B2 (en) 2005-05-26 2005-05-26 Image correction device, feature recognition device, and feature recognition method

Country Status (1)

Country Link
JP (1) JP4774807B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140008A (en) * 2007-12-03 2009-06-25 Sumitomo Electric Ind Ltd Dangerous traveling information provision device, dangerous traveling decision program and dangerous traveling decision method
JP5720517B2 (en) * 2011-09-28 2015-05-20 アイシン・エィ・ダブリュ株式会社 Stop line detection system, stop line detection device, stop line detection method, and computer program
EP2927059B1 (en) 2012-11-27 2018-06-27 Nissan Motor Co., Ltd Driving assistance device
WO2020170835A1 (en) * 2019-02-18 2020-08-27 ソニー株式会社 Information processing device, information processing method, and information processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08120618A (en) * 1994-10-20 1996-05-14 Mitsubishi Heavy Ind Ltd Road marking detecting and repairing car
JP3559142B2 (en) * 1997-04-25 2004-08-25 三菱電機株式会社 Locator device
JP3584194B2 (en) * 2000-02-22 2004-11-04 株式会社ホンダエレシス White line detection method and white line detection device
JP2004052510A (en) * 2002-07-16 2004-02-19 Kazuo Saito White line for sign

Also Published As

Publication number Publication date
JP2006331058A (en) 2006-12-07

Similar Documents

Publication Publication Date Title
JP4513740B2 (en) Route guidance system and route guidance method
US7974780B2 (en) Route navigation systems, methods, and programs
EP1793205A1 (en) Route guidance system and route guidance method
EP1793204B1 (en) System for and method of providing lane guidance
US8175800B2 (en) Route guidance system and route guidance method
EP1780508A1 (en) Route guidance system and route guidance method
US20070106460A1 (en) Route guidance system, methods and programs
JP2007178358A (en) System and method for route guidance
JP4591311B2 (en) Route guidance system and route guidance method
JP2006277546A (en) Information providing system and information providing method
JP2006273230A (en) Vehicle controller and vehicle control method
JP2007274564A (en) Calibration apparatus and calibration method
JP4613738B2 (en) Intersection recognition system and intersection recognition method
JP4774807B2 (en) Image correction device, feature recognition device, and feature recognition method
JP4581674B2 (en) Route guidance system and route guidance method
JP5134608B2 (en) Vehicle periphery display device, vehicle periphery display method and program
JP4687244B2 (en) Image processing system and image processing method
JP4710604B2 (en) Route guidance system and route guidance method
JP4572823B2 (en) Route guidance system and route guidance method
JP4572822B2 (en) Route guidance system and route guidance method
JP4639901B2 (en) Vehicle control apparatus and vehicle control method
JP4591073B2 (en) Route guidance system
JP2007178359A (en) System and method for route guidance
JP4613793B2 (en) Route guidance system and route guidance method
JP2007127421A (en) System and method for route guidance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

R150 Certificate of patent or registration of utility model

Ref document number: 4774807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees