JP2006331217A - Image processing system and image processing method - Google Patents
Image processing system and image processing method Download PDFInfo
- Publication number
- JP2006331217A JP2006331217A JP2005156118A JP2005156118A JP2006331217A JP 2006331217 A JP2006331217 A JP 2006331217A JP 2005156118 A JP2005156118 A JP 2005156118A JP 2005156118 A JP2005156118 A JP 2005156118A JP 2006331217 A JP2006331217 A JP 2006331217A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- recognition area
- image
- area
- vehicle speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理システム及び画像処理方法に関するものである。 The present invention relates to an image processing system and an image processing method.
従来、ナビゲーション装置においては、例えば、GPS(グローバルポジショニングシステム)によって車両の現在の位置、すなわち、現在地が検出されるとともに、ジャイロセンサによって検出された車両の旋回角に基づいて、車両の方位、すなわち、自車方位が検出され、データ記録部から地図データが読み出され、表示部に地図画面が形成され、該地図画面に、現在地を表す自車位置、自車位置の周辺の地図及び自車方位が表示されるようになっている。したがって、操作者である運転者は、前記地図画面に表示された自車位置、自車位置の周辺の地図及び自車方位に従って車両を走行させることができる。 Conventionally, in a navigation apparatus, for example, the current position of a vehicle, that is, the current position is detected by GPS (Global Positioning System), and the direction of the vehicle, that is, based on the turning angle of the vehicle detected by a gyro sensor, that is, The vehicle direction is detected, map data is read from the data recording unit, a map screen is formed on the display unit, the vehicle position indicating the current location, a map around the vehicle position, and the vehicle The direction is displayed. Therefore, the driver who is an operator can drive the vehicle according to the own vehicle position displayed on the map screen, the map around the own vehicle position, and the own vehicle direction.
また、運転者が目的地を入力し、探索条件を設定すると、該探索条件に基づいて、経路探索処理が行われ、前記地図データに従って現在地で表される出発地から目的地までの経路が探索される。そして、探索された経路、すなわち、探索経路は前記地図画面に自車位置と共に表示され、探索経路の案内、すなわち、経路案内が行われる。したがって、運転者は表示された探索経路に沿って車両を走行させることができる。 When the driver inputs a destination and sets search conditions, a route search process is performed based on the search conditions, and a route from the starting point represented by the current location to the destination is searched according to the map data. Is done. Then, the searched route, that is, the searched route is displayed on the map screen together with the vehicle position, and guidance for the searched route, that is, route guidance is performed. Therefore, the driver can drive the vehicle along the displayed search route.
ところで、車両の前端部にカメラを搭載し、車両が走行しているレーンを表す走行レーンの車両通行帯境界線等を前記カメラによって被撮影物として撮影し、画像データを発生させ、該画像データに対して画像処理を行うことによって、前記被撮影物を認識対象物として認識し、認識された認識対象物に基づいて走行支援を行う走行支援システムが提供されている(例えば、特許文献1参照。)。
しかしながら、前記従来の走行支援システムにおいては、画像中の道路が存在する下方の部分だけが、前記認識対象物を認識する領域、すなわち、認識エリアとして設定されるようになっているが、画像中の道路が存在する部分が大きくなると、道路の全体が前記認識エリアになり、画像処理の負荷が大きくなってしまう。 However, in the conventional driving support system, only the lower portion where the road in the image exists is set as an area for recognizing the recognition object, that is, a recognition area. When the portion where the road is present becomes large, the entire road becomes the recognition area, and the load of image processing increases.
そこで、道路が存在する部分より小さい部分を認識エリアとして設定し、該認識エリア内において前記認識対象物を認識することが考えられる。その場合、カメラに近い部分に認識エリアを設定すると、該認識エリアにおける実際の道路上の距離が短くなるので、認識精度を向上させることができる。ところが、画像中の認識対象物は車両に対して相対的に移動するので、車速が高い場合、認識対象物に対する撮影時のシャッタ回数に相当するフレームの数(以下「フレーム数」という。)が少なくなり、認識率がその分低くなってしまう。 Therefore, it is conceivable that a portion smaller than the portion where the road exists is set as a recognition area, and the recognition object is recognized in the recognition area. In that case, if the recognition area is set near the camera, the distance on the actual road in the recognition area is shortened, so that the recognition accuracy can be improved. However, since the recognition object in the image moves relative to the vehicle, when the vehicle speed is high, the number of frames (hereinafter referred to as “frame number”) corresponding to the number of shutters at the time of shooting for the recognition object. The recognition rate is reduced accordingly.
一方、カメラから離れた部分に認識エリアを設定すると、車速が高い場合でも、前記認識対象物に対するフレーム数が多くなるので、認識率を高くすることができるが、認識エリアにおける実際の道路上の距離が長くなるので、認識精度がその分低くなってしまう。 On the other hand, if a recognition area is set in a part away from the camera, the number of frames for the recognition object increases even when the vehicle speed is high, so that the recognition rate can be increased, but on the actual road in the recognition area. Since the distance becomes longer, the recognition accuracy is lowered accordingly.
このように、認識率が低くなったり、認識精度が低くなったりするので、認識対象物を的確に認識することができない。 As described above, since the recognition rate is lowered and the recognition accuracy is lowered, the recognition target cannot be accurately recognized.
本発明は、前記従来の走行支援システムの問題点を解決して、認識対象物を的確に認識することができる画像処理システム及び画像処理方法を提供することを目的とする。 It is an object of the present invention to provide an image processing system and an image processing method capable of solving the problems of the conventional driving support system and accurately recognizing an object to be recognized.
そのために、本発明の画像処理システムにおいては、車速を検出する車速検出部と、車両の所定の箇所に取り付けられ、被撮影物を撮影して画像データを発生させる撮像装置と、前記画像データから成る画像が形成される画像領域内において認識エリアを設定する認識エリア設定処理手段と、前記認識エリアを車速に応じて移動させる認識エリア移動処理手段と、前記認識エリア内の認識対象物を認識する認識対象物認識処理手段とを有する。 Therefore, in the image processing system of the present invention, a vehicle speed detection unit that detects a vehicle speed, an imaging device that is attached to a predetermined portion of the vehicle and shoots an object to generate image data, and the image data A recognition area setting processing means for setting a recognition area in an image area where an image is formed, a recognition area movement processing means for moving the recognition area according to a vehicle speed, and a recognition object in the recognition area is recognized. Recognition object recognition processing means.
本発明によれば、画像領域内において設定された認識エリアが車速に応じて移動させられるので、認識対象物の認識率を高くしたり、認識精度を高くしたりすることができる。したがって、認識対象物を的確に認識することができる。 According to the present invention, since the recognition area set in the image region is moved according to the vehicle speed, it is possible to increase the recognition rate of the recognition target object or increase the recognition accuracy. Therefore, the recognition object can be accurately recognized.
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は本発明の実施の形態におけるナビゲーションシステムを示す図である。 FIG. 1 is a diagram showing a navigation system according to an embodiment of the present invention.
図において、10はパワートレイン制御部としての自動変速機制御部であり、該自動変速機制御部10は、所定の変速比で変速を行うパワートレイン、例えば、自動変速機としての無段変速機(CVT)、有段変速機(オートマチックトランスミッション)、電動駆動装置等の制御を行う。
In the figure,
そして、14は情報端末、例えば、車両に搭載された車載装置としてのナビゲーション装置、63はネットワーク、51は情報提供者としての情報センタであり、前記自動変速機制御部10、ナビゲーション装置14、ネットワーク63、情報センタ51等によってナビゲーションシステムが構成される。
Reference numeral 14 is an information terminal, for example, a navigation device as an in-vehicle device mounted on a vehicle, 63 is a network, 51 is an information center as an information provider, and the automatic
前記ナビゲーション装置14は、現在地を検出する現在地検出部としてのGPSセンサ15、地図データのほかに各種の情報が記録された情報記録部としてのデータ記録部16、入力された情報に基づいて、ナビゲーション処理等の各種の演算処理を行うナビゲーション処理部17、自車方位を検出する方位検出部としての方位センサ18、操作者である運転者が操作することによって所定の入力を行うための第1の入力部としての操作部34、図示されない画面に表示された画像によって各種の表示を行い、運転者に通知するための第1の出力部としての表示部35、音声によって所定の入力を行うための第2の入力部としての音声入力部36、音声によって各種の表示を行い、運転者に通知するための第2の出力部としての音声出力部37、及び通信端末として機能する送受信部としての通信部38を備え、前記ナビゲーション処理部17に、GPSセンサ15、データ記録部16、方位センサ18、操作部34、表示部35、音声入力部36、音声出力部37及び通信部38が接続される。
The navigation device 14 includes a GPS sensor 15 as a current location detection unit for detecting a current location, a
また、前記ナビゲーション処理部17には、前記自動変速機制御部10、車両の前端の所定の箇所に取り付けられ、車両の前方を監視する前方監視装置48、車両の後端の所定の箇所に取り付けられ、車両の後方を撮影する撮像装置としての、かつ、後方監視装置としてのバックカメラ(後方監視カメラ)49、運転者によるアクセルペダルの操作をアクセル開度で検出するエンジン負荷検出部としてのアクセルセンサ42、運転者によるブレーキペダルの操作をブレーキ踏込量で検出する制動検出部としてのブレーキセンサ43、車速Sを検出する車速検出部としての車速センサ44等が接続される。なお、アクセルセンサ42、ブレーキセンサ43等は運転者による車両の操作情報を検出するための操作情報検出部を構成する。
The navigation processing unit 17 is attached to the automatic
前記GPSセンサ15は、人工衛星によって発生させられた電波を受信することによって地球上における現在地を検出し、併せて時刻を検出する。本実施の形態においては、現在地検出部としてGPSセンサ15が使用されるようになっているが、該GPSセンサ15に代えて図示されない距離センサ、ステアリングセンサ、高度計等を単独で、又は組み合わせて使用することもできる。また、前記方位センサ18としてジャイロセンサ、地磁気センサ等を使用することができる。
The GPS sensor 15 detects the current location on the earth by receiving radio waves generated by an artificial satellite, and also detects the time. In the present embodiment, the GPS sensor 15 is used as the current position detection unit, but a distance sensor, a steering sensor, an altimeter, etc. (not shown) are used alone or in combination instead of the GPS sensor 15. You can also Further, a gyro sensor, a geomagnetic sensor, or the like can be used as the
前記データ記録部16は、地図データファイルから成る地図データベースを備え、該地図データベースに地図データが記録される。該地図データには、交差点に関する交差点データ、ノードに関するノードデータ、道路リンクに関する道路データ、探索用に加工された探索データ、施設に関する施設データ等が含まれるほか、地物に関する地物データが含まれる。
The
前記地物は、運転者に各種の走行上の情報を提供したり、各種の走行上の案内を行ったりするために道路上に設置、又は形成された表示物であり、表示線、路上標識、横断歩道、マンホール、信号機等から成る。前記表示線には、車両を停止させるための停止線、各レーンを区分する車両通行帯境界線、駐車スペースを表す区画線等が含まれ、前記路上標識には、各レーンにおける進行方向を矢印によって表す通行区分標識、「止まれ」等のように一時停止箇所を予告する案内標識等が含まれる。そして、前記地物データには、各地物の位置を座標等で表す位置情報、各地物をイメージで表す画像情報等が含まれる。なお、前記一時停止箇所には、非優先道路から優先道路への進入箇所、踏切、赤信号が点滅する交差点等が含まれる。 The feature is a display object that is installed or formed on a road in order to provide various driving information to the driver or to perform various driving guidance. , Crosswalks, manholes, traffic lights, etc. The display line includes a stop line for stopping the vehicle, a vehicle lane boundary line that divides each lane, a partition line that indicates a parking space, and the road sign indicates an advancing direction in each lane. , A guidance sign for notifying a stop point such as “stop”, and the like. The feature data includes position information that represents the position of each feature by coordinates, image information that represents each feature by image, and the like. The temporary stop points include an entry point from a non-priority road to a priority road, a railroad crossing, an intersection where a red light flashes, and the like.
また、前記レーンに関する道路データとして、道路上の各レーンごとに付与されたレーン番号、レーンの位置情報等から成るレーンデータが含まれる。前記データ記録部16には、所定の情報を音声出力部37によって出力するためのデータも記録される。
The road data related to the lane includes lane data including a lane number assigned to each lane on the road, lane position information, and the like. Data for outputting predetermined information by the
さらに、前記データ記録部16には、統計データファイルから成る統計データベース、走行履歴データファイルから成る走行履歴データベース等が形成され、前記統計データファイルに統計データが、前記走行履歴データファイルに走行履歴データが、いずれも実績データとして記録される。
Further, the
前記統計データは、過去に提供された交通情報の実績、すなわち、履歴を表す履歴情報であり、情報提供者としてのVICS(登録商標:Vehicle Information and Communication System)センタ等の図示されない道路交通情報センタ等によって過去に提供された交通情報、及び国土交通省によって提供された道路交通センサスによる交通量を表すデータである道路交通センサス情報、国土交通省によって提供された道路時刻表情報等を単独で、又は組み合わせて使用し、必要に応じて、加工し、統計処理を施すことによって作成される。なお、前記統計データに、渋滞状況を予測する渋滞予測情報等を加えることもできる。その場合、前記統計データを作成するに当たり、履歴情報に、日時、曜日、天候、各種イベント、季節、施設の情報(デパート、スーパーマーケット等の大型の施設の有無)等の詳細な条件が加えられる。 The statistical data is a history of traffic information provided in the past, that is, history information representing a history, and a road traffic information center (not shown) such as a VICS (registered trademark: Vehicle Information and Communication System) center as an information provider. The road traffic census information that is the traffic information provided in the past by the Ministry of Land, Infrastructure, Transport and Tourism, the road traffic census information that is the data showing the traffic volume by the Road Traffic Census, the road timetable information provided by the Ministry of Land, Infrastructure, Transport and Tourism, etc. Alternatively, they are used in combination, processed as necessary, and subjected to statistical processing. It is possible to add traffic jam prediction information for predicting traffic jams to the statistical data. In that case, in creating the statistical data, detailed conditions such as date and time, day of the week, weather, various events, seasons, facility information (presence / absence of large facilities such as department stores and supermarkets) are added to the history information.
前記統計データのデータ項目には、各道路リンクについてのリンク番号、走行方向を表す方向フラグ、情報の種類を表す情報種別、所定のタイミングごとの渋滞度、前記各道路リンクを走行したときの、所定のタイミングごとの所要時間を表すリンク所要時間、該リンク所要時間の各曜日ごとの平均的なデータ(例えば、曜日平均データ)等から成る。 The data items of the statistical data include a link number for each road link, a direction flag indicating a traveling direction, an information type indicating a type of information, a congestion level at each predetermined timing, and when traveling on each road link. It consists of a link required time representing a required time for each predetermined timing, average data for each day of the link required time (for example, day average data), and the like.
また、走行履歴データは、情報センタ51によって複数の車両、すなわち、自車又は他車から収集され、各車両が走行した道路における車両の走行の実績、すなわち、走行実績を表す実績情報であり、走行データに基づいてプローブデータとして算出され、蓄積される。 Further, the travel history data is collected from a plurality of vehicles, that is, the own vehicle or other vehicles by the information center 51, and is a record of the travel of the vehicle on the road on which each vehicle travels, that is, the track record information representing the track record. It is calculated and accumulated as probe data based on the running data.
前記走行履歴データのデータ項目は、各道路リンクを走行したときの、所定のタイミングごとのリンク所要時間、各道路リンクを走行したときの、所定のタイミングごとの渋滞度等から成る。なお、前記統計データに、走行履歴データを加えることができる。また、本実施の形態において、渋滞度は、渋滞の度合いを表す渋滞指標として使用され、渋滞、混雑及び非渋滞の別で表される。 The data items of the travel history data include a link required time at each predetermined timing when traveling on each road link, a degree of congestion at each predetermined timing when traveling on each road link, and the like. Note that travel history data can be added to the statistical data. Further, in the present embodiment, the congestion level is used as a congestion index that represents the degree of congestion, and is represented separately for congestion, congestion, and non-congestion.
前記データ記録部16は、前記各種のデータを記録するために、ハードディスク、CD、DVD、光ディスク等の図示されないディスクを備えるほかに、各種のデータを読み出したり、書き込んだりするための読出・書込ヘッド等の図示されないヘッドを備える。前記データ記録部16にメモリカード等を使用することができる。
The
本実施の形態においては、前記データ記録部16に、前記地図データベース、統計データベース、走行履歴データベース等が配設されるようになっているが、情報センタ51において、前記地図データベース、統計データベース、走行履歴データベース等を配設することもできる。
In the present embodiment, the
また、前記ナビゲーション処理部17は、ナビゲーション装置14の全体の制御を行う制御装置としての、かつ、演算装置としてのCPU31、該CPU31が各種の演算処理を行うに当たってワーキングメモリとして使用されるRAM32、制御用のプログラムのほか、目的地までの経路の探索、経路案内等を行うための各種のプログラムが記録されたROM33、各種のデータ、プログラム等を記録するために使用される図示されないフラッシュメモリを備える。
The navigation processing unit 17 is a control device that performs overall control of the navigation device 14 and a CPU 31 as an arithmetic device, a
本実施の形態においては、前記ROM33に各種のプログラムを記録し、前記データ記録部16に各種のデータを記録することができるが、プログラム、データ等をディスク等に記録することもできる。この場合、ディスク等から前記プログラム、データ等を読み出してフラッシュメモリに書き込むことができる。したがって、ディスク等を交換することによって前記プログラム、データ等を更新することができる。また、前記自動変速機制御部10の制御用のプログラム、データ等も前記ディスク等に記録することができる。さらに、通信部38を介して前記プログラム、データ等を受信し、ナビゲーション処理部17のフラッシュメモリに書き込むこともできる。
In the present embodiment, various programs can be recorded in the ROM 33 and various data can be recorded in the
前記操作部34は、運転者が操作することによって、走行開始時の現在地を修正したり、出発地及び目的地を入力したり、通過点を入力したり、通信部38を作動させたりするためのものであり、前記操作部34として、表示部35とは独立に配設されたキーボード、マウス等を使用することができる。また、前記操作部34として、前記表示部35に形成された画面に画像で表示された各種のキー、スイッチ、ボタン等の画像操作部をタッチ又はクリックすることによって、所定の入力操作を行うことができるようにしたタッチパネルを使用することができる。
The operation unit 34 is operated by the driver to correct the current location at the start of traveling, to input a departure point and a destination, to input a passing point, and to activate the
前記表示部35としてディスプレイが使用される。そして、表示部35に形成された各種の画面に、車両の現在地を自車位置として、車両の方位を自車方位として表示したり、地図、探索経路、該探索経路に沿った案内情報、交通情報等を表示したり、探索経路における次の交差点までの距離、次の交差点における進行方向を表示したりすることができるだけでなく、前記画像操作部、操作部34、音声入力部36等の操作案内、操作メニュー、キーの案内を表示したり、FM多重放送の番組等を表示したりすることができる。 A display is used as the display unit 35. Then, on various screens formed on the display unit 35, the current position of the vehicle is displayed as the vehicle position, the vehicle direction is displayed as the vehicle direction, a map, a search route, guidance information along the search route, traffic In addition to displaying information and the like, displaying the distance to the next intersection on the searched route, and the traveling direction at the next intersection, the operation of the image operation unit, operation unit 34, voice input unit 36, etc. It is possible to display guidance, operation menus, key guidance, FM multiplex broadcast programs, and the like.
また、音声入力部36は、図示されないマイクロホン等によって構成され、音声によって必要な情報を入力することができる。さらに、音声出力部37は、図示されない音声合成装置及びスピーカを備え、音声出力部37から、前記探索経路、案内情報、交通情報等が、例えば、音声合成装置によって合成された音声で出力される。
The voice input unit 36 includes a microphone (not shown) and the like, and can input necessary information by voice. Further, the
前記通信部38は、前記道路交通情報センタから送信された現況の交通情報、一般情報等の各種の情報を、道路に沿って配設された電波ビーコン装置、光ビーコン装置等を介して電波ビーコン、光ビーコン等として受信するためのビーコンレシーバ、FM放送局を介してFM多重放送として受信するためのFM受信機等を備える。なお、前記交通情報には、渋滞情報、規制情報、駐車場情報、交通事故情報、サービスエリアの混雑状況情報等が含まれ、一般情報には、ニュース、天気予報等が含まれる。また、前記ビーコンレシーバ及びFM受信機は、ユニット化されてVICSレシーバとして配設されるようになっているが、別々に配設することもできる。
The
前記交通情報は、情報の種別を表す情報種別、メッシュを特定するためのメッシュ番号、二つの地点(例えば、交差点)間を連結する道路リンクを特定し、かつ、上り/下りの別を表すリンク番号、該リンク番号に対応させて提供される情報の内容を表すリンク情報を含み、例えば、交通情報が渋滞情報である場合、前記リンク情報は、前記道路リンクの始点から渋滞の先頭までの距離を表す渋滞先頭データ、渋滞度、渋滞区間を前記渋滞の先頭から渋滞の末尾までの距離を表す渋滞長、道路リンクを走行するのに必要な時間を表すリンク所要時間等から成る。 The traffic information includes an information type that indicates the type of information, a mesh number for specifying a mesh, a road link that connects two points (for example, intersections), and a link that indicates whether it is up / down. Number, including link information representing the content of information provided corresponding to the link number. For example, when the traffic information is traffic jam information, the link information is a distance from the start point of the road link to the head of the traffic jam Congestion head data representing traffic congestion degree, congestion section, traffic jam length representing the distance from the beginning of the traffic jam to the end of the traffic jam, link required time representing the time required to travel on the road link, and the like.
そして、通信部38は、前記情報センタ51から、前記地図データ、統計データ、走行履歴データ等のデータのほか、交通情報、一般情報等の各種の情報をネットワーク63を介して受信することができる。
And the
そのために、前記情報センタ51は、サーバ53、該サーバ53に接続された通信部57及び情報記録部としてのデータベース(DB)58等を備え、前記サーバ53は、制御装置としての、かつ、演算装置としてのCPU54、RAM55、ROM56等を備える。また、前記データベース58に、前記データ記録部16に記録された各種のデータと同様のデータ、例えば、前記地図データ、統計データ、走行履歴データ等が記録される。さらに、情報センタ51は、前記道路交通情報センタから送信された現況の交通情報、一般情報等の各種の情報、及び複数の車両(自車又は他車)から収集した走行履歴データをリアルタイムに提供することができる。
For this purpose, the information center 51 includes a server 53, a communication unit 57 connected to the server 53, a database (DB) 58 as an information recording unit, and the like. A CPU 54, a
そして、前記前方監視装置48は、レーザレーダ、ミリ波レーダ等のレーダ、超音波センサ等、又はそれらの組合せから成り、先行して走行している車両である先行車両を監視したり、一時停止箇所、障害物等を監視したりする。また、前方監視装置48は、自車周辺情報として先行車両に対する相対的な車速を表す相対速度、一時停止箇所に対する接近速度、障害物に対する接近速度等を検出したり、車間距離、車間時間等を算出したりする。 The forward monitoring device 48 is composed of a radar such as a laser radar or a millimeter wave radar, an ultrasonic sensor, or a combination thereof, and monitors or temporarily stops a preceding vehicle, which is a preceding traveling vehicle. Monitor places and obstacles. In addition, the front monitoring device 48 detects the relative speed indicating the relative vehicle speed with respect to the preceding vehicle, the approach speed with respect to the temporary stop point, the approach speed with respect to the obstacle, etc. Or calculate.
前記バックカメラ49は、CCD素子から成り、自車の後方を監視するために、光軸を斜め下方に向けて取り付けられ、前記地物のほかに、自車の後方を走行している他車である後方車両、道路脇の建造物、構造物等を被撮影物として撮影し、撮影された被撮影物の画像データを発生させ、CPU31に送る。該CPU31は、前記画像データを読み込み、画像データに対して画像処理を行うことによって、画像中の前記各被撮影物を認識対象物として認識する。本実施の形態においては、バックカメラ49としてCCD素子が使用されるが、C−MOS素子等を使用することができる。 The back camera 49 is composed of a CCD element and is mounted with the optical axis obliquely downward to monitor the rear of the own vehicle. In addition to the features, the rear camera 49 is traveling behind the own vehicle. A rear vehicle, a roadside structure, a structure, or the like is photographed as an object to be photographed, and image data of the photographed object is generated and sent to the CPU 31. The CPU 31 reads the image data and performs image processing on the image data, thereby recognizing each object to be photographed in the image as a recognition object. In the present embodiment, a CCD element is used as the back camera 49, but a C-MOS element or the like can be used.
なお、前記ナビゲーションシステム、ナビゲーション処理部17、CPU31、54、サーバ53等は、単独で又は二つ以上組み合わせることによってコンピュータとして機能し、各種のプログラム、データ等に基づいて演算処理を行う。また、データ記録部16、RAM32、55、ROM33、56、データベース58、フラッシュメモリ等によって記録媒体が構成される。そして、演算装置として、CPU31、54に代えてMPU等を使用することもできる。
The navigation system, the navigation processing unit 17, the CPUs 31, 54, the server 53, and the like function as a computer singly or in combination of two or more, and perform arithmetic processing based on various programs, data, and the like. The
次に、前記構成のナビゲーションシステムの基本動作について説明する。 Next, a basic operation of the navigation system having the above configuration will be described.
まず、運転者によって操作部34が操作され、ナビゲーション装置14が起動されると、CPU31の図示されないナビ初期化処理手段は、ナビ初期化処理を行い、GPSセンサ15によって検出された自車の現在地、方位センサ18によって検出された自車方位を読み込むとともに、各種のデータを初期化する。次に、前記CPU31の図示されないマッチング処理手段は、マッチング処理を行い、読み込まれた現在地の軌跡、及び現在地の周辺の道路を構成する各道路リンクの形状、配列等に基づいて、現在地がいずれの道路リンク上に位置するかの判定を行うことによって、現在地を特定する。
First, when the operation unit 34 is operated by the driver and the navigation device 14 is activated, a navigation initialization processing unit (not shown) of the CPU 31 performs a navigation initialization process and detects the current location of the vehicle detected by the GPS sensor 15. The vehicle direction detected by the
また、本実施の形態において、前記マッチング処理手段は、さらに、バックカメラ49によって撮影された前記被撮影物である各地物の位置に基づいて現在地を特定する。 In the present embodiment, the matching processing unit further specifies the current location based on the position of each feature that is the subject to be photographed by the back camera 49.
そのために、CPU31の図示されない画像認識処理手段は、画像認識処理を行い、バックカメラ49から画像データを読み込み、該画像データから成る画像中の地物を認識する。また、前記CPU31の図示されない距離算出処理手段は、距離算出処理を行い、画像中における地物の位置に基づいて、カメラ49から実際の地物までの距離Laを算出する。そして、前記マッチング処理手段の現在地特定処理手段は、現在地特定処理を行い、前記距離Laを読み込むとともに、データ記録部16から地物データを読み出して前記地物の座標を取得し、該座標及び前記距離Laに基づいて現在地を特定する。
For this purpose, image recognition processing means (not shown) of the CPU 31 performs image recognition processing, reads image data from the back camera 49, and recognizes a feature in the image composed of the image data. A distance calculation processing unit (not shown) of the CPU 31 performs a distance calculation process, and calculates a distance La from the camera 49 to the actual feature based on the position of the feature in the image. The current location specifying processing means of the matching processing means performs current location specifying processing, reads the distance La, reads the feature data from the
また、前記CPU31の図示されないレーン検出処理手段は、レーン検出処理を行い、同様に、前記画像データに基づいて認識された地物とデータ記録部16から読み出された地物データとを照合させることによって、自車が走行しているレーン、すなわち、走行レーンを検出する。
A lane detection processing unit (not shown) of the CPU 31 performs a lane detection process, and similarly collates the feature recognized based on the image data with the feature data read from the
なお、前記レーン検出処理手段は、前記地磁気センサのセンサ出力を読み込み、該センサ出力に基づいて、道路上の所定のレーンにマンホール等の強磁性体から成る被検出物があるかどうかを判断し、判断結果に基づいて走行レーンを検出することもできる。さらに、高精度のGPSセンサ15を使用し、現在地を精度よく検出し、検出結果に基づいて走行レーンを検出することができる。また、必要に応じて、表示線の画像データに対して画像処理を行うのと同時に、地磁気センサのセンサ出力、現在地等を組み合わせて、走行レーンを検出することができる。 The lane detection processing means reads the sensor output of the geomagnetic sensor, and based on the sensor output, determines whether or not there is a detected object made of a ferromagnetic material such as a manhole in a predetermined lane on the road. The traveling lane can also be detected based on the determination result. Furthermore, it is possible to detect the current location with high accuracy using the highly accurate GPS sensor 15 and to detect the traveling lane based on the detection result. Further, if necessary, image processing can be performed on the display line image data, and at the same time, the traveling lane can be detected by combining the sensor output of the geomagnetic sensor, the current location, and the like.
続いて、CPU31の図示されない基本情報取得処理手段は、基本情報取得処理を行い、前記地図データを、データ記録部16から読み出して取得するか、又は通信部38を介して情報センタ51等から受信して取得する。なお、地図データを情報センタ51等から取得する場合、前記基本情報取得処理手段は、受信した地図データをフラッシュメモリにダウンロードする。
Subsequently, a basic information acquisition processing unit (not shown) of the CPU 31 performs a basic information acquisition process and acquires the map data by reading it from the
そして、前記CPU31の図示されない表示処理手段は、表示処理を行い、前記表示部35に各種の画面を形成する。例えば、表示処理手段の地図表示処理手段は、地図表示処理を行い、表示部35に地図画面を形成し、該地図画面に周囲の地図を表示するとともに、現在地を自車位置として、車両の方位を自車方位として表示する。 A display processing unit (not shown) of the CPU 31 performs a display process and forms various screens on the display unit 35. For example, the map display processing means of the display processing means performs a map display process, forms a map screen on the display unit 35, displays a surrounding map on the map screen, and sets the current position as the vehicle position and the direction of the vehicle. Is displayed as the vehicle direction.
したがって、運転者は、前記地図、自車位置及び自車方位に従って車両を走行させることができる。 Accordingly, the driver can drive the vehicle according to the map, the vehicle position, and the vehicle direction.
また、運転者が操作部34を操作して目的地を入力すると、CPU31の図示されない目的地設定処理手段は、目的地設定処理を行い、目的地を設定する。なお、必要に応じて出発地を入力し、設定することもできる。また、あらかじめ所定の地点を登録しておき、登録された地点を目的地として設定することができる。続いて、運転者が操作部34を操作して探索条件を入力すると、CPU31の図示されない探索条件設定処理手段は、探索条件設定処理を行い、探索条件を設定する。 Further, when the driver operates the operation unit 34 to input a destination, a destination setting processing unit (not shown) of the CPU 31 performs a destination setting process to set the destination. Note that the departure place can be input and set as necessary. Moreover, a predetermined point can be registered in advance, and the registered point can be set as a destination. Subsequently, when the driver operates the operation unit 34 to input a search condition, a search condition setting processing unit (not shown) of the CPU 31 performs a search condition setting process to set the search condition.
このようにして、目的地及び探索条件が設定されると、CPU31の図示されない経路探索処理手段は、経路探索処理を行い、前記現在地、目的地、探索条件等を読み込むともに、データ記録部16から探索データ等を読み出し、現在地、目的地及び探索データに基づいて、現在地で表される出発地から目的地までの経路を前記探索条件で探索し、探索経路を表す経路データを出力する。このとき、各道路リンクごとに付与されたリンクコストの合計が最も小さい経路が探索経路とされる。
When the destination and the search condition are set in this way, the route search processing unit (not shown) of the CPU 31 performs the route search process, reads the current location, the destination, the search condition, and the like from the
また、道路に複数のレーンが形成されている場合で、かつ、走行レーンが検出されている場合、前記経路探索処理手段は、レーン単位の探索経路を探索する。その場合、前記経路データには走行レーンのレーン番号等も含まれる。 When a plurality of lanes are formed on the road and a traveling lane is detected, the route search processing means searches for a search route for each lane. In this case, the route data includes the lane number of the traveling lane.
続いて、前記CPU31の図示されない案内処理手段は、案内処理を行い、経路案内を行う。そのために、前記案内処理手段の経路表示処理手段は、経路表示処理を行い、前記経路データを読み込み、該経路データに従って前記地図画面に探索経路を表示する。レーン単位の探索経路が探索されている場合は、所定の地点、例えば、案内交差点において、レーン単位の経路案内が行われ、交差点拡大図に経路案内がされている走行レーンが表示される。また、必要に応じて、前記案内処理手段の音声出力処理手段は、音声出力処理を行い、音声出力部37から探索経路を音声で出力して経路案内を行う。
Subsequently, a guidance processing means (not shown) of the CPU 31 performs guidance processing and provides route guidance. For this purpose, the route display processing means of the guidance processing means performs route display processing, reads the route data, and displays the searched route on the map screen according to the route data. When a search route for each lane is searched, route guidance for each lane is performed at a predetermined point, for example, a guidance intersection, and a travel lane for which route guidance is being performed is displayed in the enlarged intersection view. If necessary, the voice output processing means of the guidance processing means performs voice output processing, and outputs a search route by voice from the
なお、前記情報センタ51において経路探索処理を行うことができる。その場合、CPU31は現在地、目的地、探索条件等を情報センタ51に送信する。該情報センタ51は、現在地、目的地、探索条件等を受信すると、CPU54の図示されない経路探索処理手段は、CPU31と同様の経路探索処理を行い、データベース58から探索データ等を読み出し、現在地、目的地及び探索データに基づいて、出発地から目的地までの経路を前記探索条件で探索し、探索経路を表す経路データを出力する。続いて、CPU54の図示されない送信処理手段は、送信処理を行い、前記経路データをナビゲーション装置14に送信する。したがって、ナビゲーション装置14において、前記基本情報取得処理手段が情報センタ51からの経路データを受信すると、前記案内処理手段は、前述されたような経路案内を行う。 The information center 51 can perform a route search process. In that case, the CPU 31 transmits the current location, the destination, search conditions, and the like to the information center 51. When the information center 51 receives the current location, destination, search conditions, etc., the route search processing means (not shown) of the CPU 54 performs route search processing similar to that of the CPU 31 and reads the search data from the database 58 to obtain the current location, destination. Based on the location and the search data, a route from the departure point to the destination is searched under the search conditions, and route data representing the searched route is output. Subsequently, a transmission processing unit (not shown) of the CPU 54 performs transmission processing and transmits the route data to the navigation device 14. Therefore, in the navigation device 14, when the basic information acquisition processing means receives the route data from the information center 51, the guidance processing means performs route guidance as described above.
そして、探索経路上に案内交差点が存在する場合、車両が案内交差点より所定の距離(例えば、X〔m〕)だけ手前の経路案内地点に到達すると、前記案内処理手段の交差点拡大図表示処理手段は、交差点拡大図表示処理を行い、地図画面の所定の領域に前述されたような交差点拡大図を形成し、交差点拡大図による経路案内を行い、該交差点拡大図に、案内交差点の周辺の地図、探索経路、案内交差点において目印になる施設等の陸標、レーン単位の経路案内が行われている場合には走行レーン等を表示する。また、必要に応じて、前記音声出力処理手段は、音声出力部37から、例えば、「この先X〔m〕で左方向です。」のような音声を出力し、経路案内を行う。
And when a guidance intersection exists on the searched route, when the vehicle reaches a route guidance point in front of the guidance intersection by a predetermined distance (for example, X [m]), the intersection enlarged map display processing means of the guidance processing means Performs an enlarged intersection map display process, forms an enlarged intersection map as described above in a predetermined area of the map screen, provides route guidance by the enlarged intersection map, and displays the map around the guided intersection in the enlarged intersection map. When the route guidance for the lane unit is being performed, the travel lane or the like is displayed. Further, if necessary, the voice output processing means outputs a voice such as “This is X [m] to the left” from the
次に、前記画像認識処理手段の動作について説明する。 Next, the operation of the image recognition processing means will be described.
図2は本発明の実施の形態における画像認識処理手段の動作を示すフローチャート、図3は本発明の実施の形態におけるバックカメラの取付状態を示す図、図4は本発明の実施の形態における画像エリアと認識エリアとの関係を示す図、図5は本発明の実施の形態における車速と認識対象フレーム数との関係を示す図、図6は本発明の実施の形態における認識エリアの位置の変更例を示す第1の図、図7は本発明の実施の形態における認識エリアの位置の変更例を示す第2の図、図8は本発明の実施の形態における画像領域上の位置と距離の重みとの関係を示す図、図9は本発明の実施の形態におけるバックカメラの取付状態の詳細を示す図である。図8において、横軸に位置を、縦軸に距離の重みwを採ってある。 FIG. 2 is a flowchart showing the operation of the image recognition processing means in the embodiment of the present invention, FIG. 3 is a diagram showing a mounting state of the back camera in the embodiment of the present invention, and FIG. 4 is an image in the embodiment of the present invention. FIG. 5 is a diagram showing the relationship between the area and the recognition area, FIG. 5 is a diagram showing the relationship between the vehicle speed and the number of recognition target frames in the embodiment of the present invention, and FIG. 6 is a change in the position of the recognition area in the embodiment of the present invention. FIG. 7 is a second diagram showing an example of changing the position of the recognition area in the embodiment of the present invention, and FIG. 8 is a diagram showing the position and distance on the image area in the embodiment of the present invention. FIG. 9 is a diagram showing the relationship with the weights, and FIG. 9 is a diagram showing details of the attached state of the back camera in the embodiment of the present invention. In FIG. 8, the horizontal axis represents the position, and the vertical axis represents the distance weight w.
図において、fはバックカメラ49(図1)の焦点、Raは路面、hは路面Raからの焦点fまでの距離で表されるバックカメラ49の高さ(厳密には焦点fの高さであるが、実質的にバックカメラ49の高さを表す。)である。また、E1は焦点fから直下に向けて延びるライン、E2は撮影範囲の下縁を示すライン、E3はバックカメラ49の光軸、E4は焦点fから地物に向けて延びるライン、E5は焦点fから消失点に向けて延びるライン、E6は撮影範囲の上縁を示すラインである。 In the figure, f is the focal point of the back camera 49 (FIG. 1), Ra is the road surface, h is the height of the back camera 49 represented by the distance from the road surface Ra to the focal point f (strictly, the height of the focal point f). But substantially represents the height of the back camera 49). E1 is a line extending directly from the focal point f, E2 is a line indicating the lower edge of the photographing range, E3 is an optical axis of the back camera 49, E4 is a line extending from the focal point f toward the feature, and E5 is a focal point. A line E6 extending from f toward the vanishing point is a line indicating the upper edge of the photographing range.
そして、P1はラインE1と路面とが交差する直下点、P2はラインE2と路面とが交差する下縁点、P3は光軸E3と路面Raとが交差する光軸点、P4はラインE4と路面とが交差する地物点、L1は直下点P1から下縁点P2までの距離、L2は直下点P1から光軸点P3までの距離、Laは直下点P1から地物点P4までの距離である。なお、バックカメラ49を構成するCCD素子から焦点fまでの距離は、無視することができるので、前記距離Laは実質的にバックカメラ49から地物までの水平方向の距離を表す。 P1 is a point immediately below where the line E1 and the road surface intersect, P2 is a lower edge point where the line E2 and the road surface intersect, P3 is an optical axis point where the optical axis E3 and the road surface Ra intersect, and P4 is the line E4. A feature point that intersects the road surface, L1 is a distance from the direct point P1 to the lower edge point P2, L2 is a distance from the direct point P1 to the optical axis point P3, and La is a distance from the direct point P1 to the feature point P4. It is. Since the distance from the CCD element constituting the back camera 49 to the focal point f can be ignored, the distance La substantially represents the distance in the horizontal direction from the back camera 49 to the feature.
また、θ1はバックカメラ49の垂直方向の撮影範囲を角度で表す垂直画角、θ2は光軸E3からラインE2までの範囲を角度で表す半画角であり、該半画角θ2は、
θ2=θ1/2
である。そして、θ3はバックカメラ49の俯角、θ4は光軸E3とラインE4との成す角度である。
In addition, θ1 is a vertical field angle that represents the vertical shooting range of the back camera 49 as an angle, θ2 is a half field angle that represents a range from the optical axis E3 to the line E2, and the half field angle θ2 is
θ2 = θ1 / 2
It is. Θ3 is a depression angle of the back camera 49, and θ4 is an angle formed by the optical axis E3 and the line E4.
また、AR1はバックカメラ49から読み込んだ画像データから成る画像が形成される領域、すなわち、画像領域であり、該画像領域AR1は、ラインE2によって形成された下縁a1、ラインE6によって形成された上縁a2、左側の側縁a3及び右側の側縁a4によって包囲されて形成される。前記画像領域AR1に、複数の画素がマトリックス状に配置される。そして、AR2は前記画像領域AR1内において、変動自在に、本実施の形態においては、上下方向に移動自在に設定された認識エリアであり、該認識エリアAR2は、下縁a5、上縁a6、左側の側縁a7及び右側の側縁a8によって包囲されて形成され、前記各画素のうちの画像認識を行う対象となる画素から成る。前記側縁a7は側縁a3よりわずかに内側に、側縁a8は側縁a4よりわずかに内側に設定される。Mは画像領域AR1内における認識エリアAR2の位置を表す指標となる中心線であり、左右方向に延在させて設定される。 AR1 is an area where an image composed of image data read from the back camera 49 is formed, that is, an image area. The image area AR1 is formed by a lower edge a1 formed by a line E2 and a line E6. The upper edge a2, the left side edge a3, and the right side edge a4 are surrounded and formed. A plurality of pixels are arranged in a matrix in the image area AR1. AR2 is a recognition area that is variably set in the image area AR1, and is movable in the vertical direction in the present embodiment. The recognition area AR2 includes a lower edge a5, an upper edge a6, It is formed by being surrounded by a left side edge a7 and a right side edge a8, and is composed of pixels that are targets of image recognition among the pixels. The side edge a7 is set slightly inside the side edge a3, and the side edge a8 is set slightly inside the side edge a4. M is a center line serving as an index indicating the position of the recognition area AR2 in the image area AR1, and is set to extend in the left-right direction.
前記画像領域AR1の寸法はバックカメラ49の仕様によって規定されていて、上下方向の長さLf1に対応する実際の道路上の距離Lr1は一定になる。また、画像領域AR1内における前記認識エリアAR2の寸法は一定にされるが、認識エリアAR2の上下方向の長さLf2に対応する実際の道路上の距離Lr2は、図7に示されるように、認識エリアAR2が下方に置かれるほど短く、図6に示されるように、上方に置かれるほど長くなる。これは、前記画像領域AR1において、下方は一つの画素が示す実際の道路上の距離が長く、上方は一つの画素が示す実際の道路上の距離が短くなるためである。なお、前記長さLf2によって、認識エリアAR2の大きさを設定する垂直方向範囲指数が構成される。この場合、前記ROM33に、前記中心線Mの位置と距離Lr2とが対応させて記録され、中心線位置マップが形成される。 The size of the image area AR1 is defined by the specification of the back camera 49, and the distance Lr1 on the actual road corresponding to the vertical length Lf1 is constant. Further, although the size of the recognition area AR2 in the image area AR1 is made constant, the actual distance Lr2 on the road corresponding to the vertical length Lf2 of the recognition area AR2 is as shown in FIG. The shorter the recognition area AR2 is, the shorter it is, and the longer the recognition area AR2 is, the longer it is, as shown in FIG. This is because, in the image area AR1, the distance on the actual road indicated by one pixel is long in the lower part and the distance on the actual road indicated by one pixel is short in the upper part. The vertical range index for setting the size of the recognition area AR2 is configured by the length Lf2. In this case, the position of the center line M and the distance Lr2 are recorded in the ROM 33 in association with each other, and a center line position map is formed.
本実施の形態において、画像領域AR1内における前記認識エリアAR2の寸法は一定にされるが、他の実施の形態においては、認識エリアAR2の寸法を、画像領域AR1内における認識エリアAR2の位置に対応させて、すなわち、前記画像領域AR1上における中心線Mの位置に対応させて変化させ、例えば、認識エリアAR2が下方に置かれるほど大きく、上方に置かれるほど小さくすることができる。その場合、前記ROM33に、前記中心線Mの位置と、長さLf2、及び該長さLf2に対応する実際の道路上の距離Lr2とが対応させて記録され、中心線位置マップが形成される。なお、必要に応じて、中心線Mの位置にかかわらず、長さLf2を変更することもできる。 In the present embodiment, the size of the recognition area AR2 in the image area AR1 is made constant, but in other embodiments, the size of the recognition area AR2 is set to the position of the recognition area AR2 in the image area AR1. Correspondingly, that is, corresponding to the position of the center line M on the image area AR1, for example, it can be made larger as the recognition area AR2 is placed below and smaller as it is placed above. In this case, the position of the center line M, the length Lf2, and the distance Lr2 on the actual road corresponding to the length Lf2 are recorded in the ROM 33 so as to form a centerline position map. . Note that the length Lf2 can be changed as needed regardless of the position of the center line M.
ところで、車両を走行させるのに伴って、地物は車両に対して相対的に後方に移動するので、前記画像領域AR1内において地物は下方から上方に向けて移動する。したがって、認識エリアAR2内において地物を認識しようとすると、撮影時のシャッタ回数に相当し、取得される画像の数を表すフレーム数(以下「認識対象フレーム数N」という。)が多いほど、利用可能な画像データが多くなり、地物を認識する可能性を表す認識率は高くなる。一方、認識対象フレーム数Nが少ないほど、利用可能な画像データが少なくなり、認識率は低くなる。 By the way, as the vehicle travels, the feature moves rearward relative to the vehicle, so that the feature moves upward from below in the image area AR1. Therefore, when trying to recognize a feature in the recognition area AR2, the number of frames (hereinafter referred to as “recognition target frame number N”) corresponding to the number of shutters at the time of shooting and representing the number of acquired images increases. The amount of usable image data increases, and the recognition rate representing the possibility of recognizing a feature increases. On the other hand, the smaller the number N of recognition target frames, the smaller the available image data and the lower the recognition rate.
したがって、認識対象フレーム数Nが多いほど好ましいが、車速Sが変化して高くなるほど、認識対象フレーム数Nが少なくなってしまう。 Accordingly, the larger the number N of recognition target frames, the better. However, the higher the vehicle speed S changes, the smaller the number N of recognition target frames.
そこで、本実施の形態においては、前記画像領域AR1内において認識エリアAR2を車速Sに応じて移動させるようにしている。 Therefore, in the present embodiment, the recognition area AR2 is moved in accordance with the vehicle speed S in the image area AR1.
そのために、まず、前記画像認識処理手段の認識エリア設定処理手段は、認識エリア設定処理を行い、前記画像領域AR1内に認識エリアAR2を設定する。すなわち、前記認識エリア設定処理手段は、中心線Mを画像領域AR1内の中央の位置に設定し、前記長さLf2を前記距離Lr2が所定の初期値、例えば、150〔cm〕になるように設定する。 For this purpose, first, the recognition area setting processing means of the image recognition processing means performs a recognition area setting process to set a recognition area AR2 in the image area AR1. That is, the recognition area setting processing means sets the center line M at the center position in the image area AR1, and sets the length Lf2 so that the distance Lr2 becomes a predetermined initial value, for example, 150 [cm]. Set.
次に、前記画像認識処理手段のフレーム数算出処理手段は、フレーム数算出処理を行い、バックカメラ49の仕様で規定され、単位時間当たり取得される画像の数を表すフレームレートFを画像認識パラメータとして読み込むとともに、車速センサ44によって検出された車速Sを読み込む。この場合、車両の走行に伴う、1フレーム当たりの地物の移動量をqとすると、
q=S/F
である。したがって、前記認識対象フレーム数Nは、地物が認識エリアAR2内を移動する間のフレーム数で表すことができるので、
N=Lr2/q
=Lr2・F/S
になる。このようにして、前記フレーム数算出処理手段は、車速Sに対応する認識対象フレーム数Nを算出する。
Next, the frame number calculation processing means of the image recognition processing means performs frame number calculation processing, and sets a frame rate F, which is defined by the specification of the back camera 49 and represents the number of images acquired per unit time, as an image recognition parameter. And the vehicle speed S detected by the vehicle speed sensor 44 is read. In this case, if q is the amount of movement of the feature per frame accompanying the traveling of the vehicle,
q = S / F
It is. Therefore, the recognition target frame number N can be expressed by the number of frames while the feature moves in the recognition area AR2.
N = Lr2 / q
= Lr2 · F / S
become. Thus, the frame number calculation processing means calculates the recognition target frame number N corresponding to the vehicle speed S.
なお、前記フレームレートFが30〔f/s〕である場合、図5に示されるように、車速S〔km/h〕、〔cm/s〕が変化すると、移動量q及び認識対象フレーム数Nが車速Sに対応して変化させられる。 When the frame rate F is 30 [f / s], as shown in FIG. 5, when the vehicle speed S [km / h], [cm / s] changes, the movement amount q and the number of recognition target frames N is changed corresponding to the vehicle speed S.
続いて、前記画像認識処理手段の位置算出処理手段は、位置算出処理を行い、前記算出された認識対象フレーム数Nを読み込み、前記中心線位置マップを参照し、前記距離Lr2が変化したときの認識対象フレーム数Nが、地物の画像を認識する上で最も好ましい基準フレーム数Nrになる中心線Mの位置を算出する。 Subsequently, the position calculation processing means of the image recognition processing means performs position calculation processing, reads the calculated number N of recognition target frames, refers to the centerline position map, and changes the distance Lr2 when the distance Lr2 changes. The position of the center line M at which the recognition target frame number N is the most preferable reference frame number Nr for recognizing the feature image is calculated.
次に、前記画像認識処理手段の認識エリア移動処理手段は、認識エリア移動処理を行い、前記算出された中心線Mに向けて認識エリアAR2を画像領域AR1内で上下方向に移動させる。 Next, the recognition area movement processing means of the image recognition processing means performs a recognition area movement process, and moves the recognition area AR2 in the vertical direction in the image area AR1 toward the calculated center line M.
この場合、認識エリア移動処理手段は、車速Sが高い場合、図6に示されるように、認識エリアAR2を画像領域AR1内のバックカメラ49から離れる方向に向けて、すなわち、上縁a2に向けて移動させ、車速Sが低い場合、図7に示されるように、認識エリアAR2を画像領域AR1内のバックカメラ49に近くなる方向に向けて、すなわち、下縁a1に向けて移動させる。 In this case, when the vehicle speed S is high, the recognition area movement processing means directs the recognition area AR2 in the direction away from the back camera 49 in the image area AR1, that is, toward the upper edge a2. When the vehicle speed S is low, the recognition area AR2 is moved toward the back camera 49 in the image area AR1, that is, toward the lower edge a1, as shown in FIG.
ところで、車両が走行している際の前記画像領域AR1内における地物の単位時間当たりの移動量は、地物の位置が下縁a1に近い部分にあるほど大きいので、前記移動量qが大きくなり、その結果、前記認識対象フレーム数Nが小さくなる。これに対して、前記画像領域AR1内における地物の単位時間当たりの移動量は、地物の位置が上縁a2に近い部分にあるほど小さいので、前記移動量qが小さくなり、その結果、前記認識対象フレーム数Nが大きくなる。 By the way, since the moving amount per unit time of the feature in the image area AR1 when the vehicle is traveling is larger as the position of the feature is closer to the lower edge a1, the moving amount q is larger. As a result, the number N of recognition target frames is reduced. On the other hand, the amount of movement of the feature in the image area AR1 per unit time is smaller as the position of the feature is closer to the upper edge a2, so the amount of movement q becomes smaller. The recognition target frame number N increases.
したがって、車速Sが高い場合、認識エリアAR2を画像領域AR1の上縁a2に向けて移動させることによって、前記認識対象フレーム数Nを大きくすることができ、地物の認識率を高くすることができる。 Therefore, when the vehicle speed S is high, by moving the recognition area AR2 toward the upper edge a2 of the image area AR1, the number N of recognition target frames can be increased, and the feature recognition rate can be increased. it can.
これに対して、車速Sが低い場合、認識エリアAR2は画像領域AR1の下縁a1に向けて移動させると、前記認識対象フレーム数Nが小さくなるので、地物の認識率が低くなる。ところが、地物を認識する精度を表す認識精度を高くすることができる。 On the other hand, when the vehicle speed S is low, if the recognition area AR2 is moved toward the lower edge a1 of the image area AR1, the number N of recognition target frames is reduced, so that the feature recognition rate is lowered. However, the recognition accuracy representing the accuracy of recognizing a feature can be increased.
すなわち、前記ラインE1、E4が成す角度を撮影俯角αとしたとき、該撮影俯角α
α=θ3+θ4
は、地物の位置がバックカメラ49に近い部分にあるほど小さく、地物を正面から撮影することになり、バックカメラ49から離れた部分にあるほど大きく、地物を斜め側方から撮影することになる。
That is, when the angle formed by the lines E1 and E4 is the shooting depression angle α, the shooting depression angle α
α = θ3 + θ4
The feature position is smaller as it is closer to the back camera 49, and the feature is photographed from the front. The feature is larger as it is away from the back camera 49, and the feature is photographed from an oblique side. It will be.
したがって、前記画像領域AR1上において各画素の上下方向の寸法(以下「ユニットサイズρ」という。)と対応する実際の道路上の距離を、距離の重みwとしたとき、図8に示されるように、画像領域AR1内における地物の位置が下縁a1(バックカメラ49)に近い部分にあるほど、距離の重みwが小さくなり、認識精度が高くなる。これに対して、地物の位置が上縁a2に近い部分にあるほど、距離の重みwが大きくなり、地物の認識精度が低くなる。なお、図8において、地物の位置は下縁a1からの画素の数で表され、下縁a1において画素の数は零(0)にされる。 Accordingly, when the distance on the actual road corresponding to the vertical dimension of each pixel (hereinafter referred to as “unit size ρ”) on the image area AR1 is set as a weight w, as shown in FIG. In addition, as the position of the feature in the image area AR1 is closer to the lower edge a1 (back camera 49), the distance weight w becomes smaller and the recognition accuracy becomes higher. On the other hand, as the position of the feature is closer to the upper edge a2, the distance weight w increases and the recognition accuracy of the feature decreases. In FIG. 8, the position of the feature is represented by the number of pixels from the lower edge a1, and the number of pixels at the lower edge a1 is set to zero (0).
本実施の形態においては、前述されたように、車速Sが低い場合、認識エリアAR2は画像領域AR1の下縁a1に向けて移動させられるので、認識精度を高くすることができる。 In the present embodiment, as described above, when the vehicle speed S is low, the recognition area AR2 is moved toward the lower edge a1 of the image area AR1, so that the recognition accuracy can be increased.
ところで、このように、認識エリアAR2を画像領域AR1内で上方に移動させることによって認識率を高くし、認識エリアAR2を画像領域AR1内で下方に移動させることによって認識精度を高くすることができるが、認識エリアAR2を画像領域AR1内の最上部に置いても認識対象フレーム数Nを十分に大きくすることができない場合、認識率を十分に高くすることができない。 By the way, the recognition rate can be increased by moving the recognition area AR2 upward in the image area AR1, and the recognition accuracy can be increased by moving the recognition area AR2 downward in the image area AR1. However, even if the recognition area AR2 is placed at the top of the image area AR1, if the number N of recognition target frames cannot be increased sufficiently, the recognition rate cannot be increased sufficiently.
そこで、認識エリアAR2を画像領域AR1内の最上部に置いても認識対象フレーム数Nを十分に大きくすることができない場合、画像認識処理手段の認識エリア容量変更処理手段は、認識エリア容量変更処理を行い、中心線Mの位置を保持したまま長さLf2を大きくし、認識エリアAR2の容量を変更し、認識エリアAR2を拡大する。したがって、利用可能な画像データを多くすることができるので、認識率を高くすることができる。 Therefore, when the recognition area AR2 is placed at the top of the image area AR1 and the number N of recognition target frames cannot be sufficiently increased, the recognition area capacity changing processing means of the image recognition processing means performs the recognition area capacity changing process. The length Lf2 is increased while the position of the center line M is maintained, the capacity of the recognition area AR2 is changed, and the recognition area AR2 is enlarged. Therefore, since usable image data can be increased, the recognition rate can be increased.
一方、認識エリアAR2を画像領域AR1内の最下部に置いても認識対象フレーム数Nが十分に大きい場合には、画像データが無用に多く、地物を誤って認識してしまう。そこで、認識エリアAR2を画像領域AR1内の最下部に置いても認識対象フレーム数Nが十分に大きい場合、前記認識エリア容量変更処理手段は、中心線Mの位置を保持したまま長さLf2を小さくし、認識エリアAR2の容量を変更し、認識エリアAR2を縮小する。したがって、利用可能な画像データを少なくすることができるので、地物を誤って認識するのを防止することができる。 On the other hand, even if the recognition area AR2 is placed at the bottom of the image area AR1, if the number N of recognition target frames is sufficiently large, the image data is uselessly large, and the feature is erroneously recognized. Therefore, if the recognition target frame number N is sufficiently large even when the recognition area AR2 is placed at the bottom of the image area AR1, the recognition area capacity changing processing means sets the length Lf2 while maintaining the position of the center line M. Decrease, change the capacity of the recognition area AR2, and reduce the recognition area AR2. Accordingly, since usable image data can be reduced, it is possible to prevent erroneous recognition of the feature.
続いて、前記画像認識処理手段の認識対象物認識処理手段は、認識対象物認識処理を行い、前記認識エリアAR2内の地物を認識対象物として認識する。 Subsequently, the recognition object recognition processing means of the image recognition processing means performs a recognition object recognition process, and recognizes a feature in the recognition area AR2 as a recognition object.
このようにして、地物を的確に認識することができる。 In this way, the feature can be recognized accurately.
このように、本実施の形態においては、画像領域AR1内において、認識エリアAR2を車速Sに応じて移動させることができるので、地物の認識率を高くしたり、認識精度を高くしたりすることができる。したがって、地物を的確に認識することができる。 Thus, in the present embodiment, the recognition area AR2 can be moved in accordance with the vehicle speed S in the image area AR1, so that the feature recognition rate is increased or the recognition accuracy is increased. be able to. Therefore, it is possible to accurately recognize the feature.
次に、フローチャートについて説明する。
ステップS1 画像認識パラメータを取得する。
ステップS2 車速Sを読み込む。
ステップS3 認識対象フレーム数Nを算出する。
ステップS4 中心線Mの位置を算出する。
ステップS5 認識エリア移動処理を行う。
ステップS6 認識対象フレーム数Nが基準フレーム数Nr以上であるかどうかを判断する。認識対象フレーム数Nが基準フレーム数Nr以上である場合はステップS9に、認識対象フレーム数Nが基準フレーム数Nrより小さい場合はステップS7に進む。
ステップS7 認識エリアAR2が最上部に置かれているかどうかを判断する。認識エリアAR2が最上部に置かれている場合はステップS8に、最上部に置かれていない場合はステップS11に進む。
ステップS8 認識エリアAR2を拡大する。
ステップS9 認識エリアAR2が最下部に置かれているかどうかを判断する。認識エリアAR2が最下部に置かれている場合はステップS10に、最下部に置かれていない場合はステップS11に進む。
ステップS10 認識エリアAR2を縮小する。
ステップS11 認識対象物認識処理を行い、処理を終了する。
Next, a flowchart will be described.
Step S1: Obtain image recognition parameters.
Step S2 The vehicle speed S is read.
Step S3: The number N of recognition target frames is calculated.
Step S4: The position of the center line M is calculated.
Step S5: A recognition area moving process is performed.
Step S6: It is determined whether the recognition target frame number N is equal to or greater than the reference frame number Nr. If the recognition target frame number N is greater than or equal to the reference frame number Nr, the process proceeds to step S9. If the recognition target frame number N is smaller than the reference frame number Nr, the process proceeds to step S7.
Step S7: It is determined whether the recognition area AR2 is placed at the top. If the recognition area AR2 is placed on the top, the process proceeds to step S8. If the recognition area AR2 is not placed on the top, the process proceeds to step S11.
Step S8: The recognition area AR2 is enlarged.
Step S9: It is determined whether the recognition area AR2 is placed at the bottom. If the recognition area AR2 is placed at the bottom, the process proceeds to step S10, and if it is not placed at the bottom, the process proceeds to step S11.
Step S10: The recognition area AR2 is reduced.
Step S11: A recognition object recognition process is performed, and the process ends.
次に、前述されたように、前記距離算出処理手段は、画像中における地物の位置に基づいて前記距離Laを算出する。 Next, as described above, the distance calculation processing unit calculates the distance La based on the position of the feature in the image.
図9において、61は撮像素子としてのCCD素子、fは焦点、Pcは画像領域AR1上の中心から地物までの画素の数、Pdは画像領域AR1上の中心から縁部までの画素の数、Lfは焦点距離である。また、E2は撮影範囲の下縁を示すライン、E3はバックカメラ49の光軸、E4は焦点fから地物に向けて延びるライン、E6は撮影範囲の上縁を示すラインである。 In FIG. 9, 61 is a CCD element as an image sensor, f is a focal point, Pc is the number of pixels from the center to the feature on the image area AR1, and Pd is the number of pixels from the center to the edge on the image area AR1. , Lf is a focal length. E2 is a line indicating the lower edge of the shooting range, E3 is an optical axis of the back camera 49, E4 is a line extending from the focal point f toward the feature, and E6 is a line indicating the upper edge of the shooting range.
そして、θ2は光軸E3からラインE6までの範囲を角度で表す半画角、θ4は光軸E3とラインE4との成す角度である。 Θ2 is a half angle of view representing the range from the optical axis E3 to the line E6 as an angle, and θ4 is an angle formed by the optical axis E3 and the line E4.
ところで、図3において、
tan(θ3−θ2)=L1/h
であるので、
tanθ2=(h・tanθ3−L1)/(h+L1・tanθ3) ……(1)
になる。また、
tan(θ3+θ4)=La/h
であるので、距離Laは、
La=h・(tanθ3+tanθ4)
/(1−tanθ3・tanθ4) ……(2)
になる。
By the way, in FIG.
tan (θ3-θ2) = L1 / h
So
tan θ2 = (h · tan θ3−L1) / (h + L1 · tan θ3) (1)
become. Also,
tan (θ3 + θ4) = La / h
Therefore, the distance La is
La = h · (tan θ3 + tan θ4)
/ (1-tan θ3 · tan θ4) (2)
become.
ここで、各画素がユニットサイズρを有するので、
tanθ2=Pd・ρ/Lf ……(3)
tanθ4=Pc・ρ/Lf
であるので、
tanθ4=Pc・tanθ2/Pd ……(4)
になる。したがって、前記式(4)に式(1)のtanθ2を代入すると、
tanθ4=Pc・{(h・tan3θ−L1)
/(h+L1・tan3θ)}/Pd ……(5)
になる。
Here, since each pixel has a unit size ρ,
tan θ2 = Pd · ρ / Lf (3)
tan θ4 = Pc · ρ / Lf
So
tan θ4 = Pc · tan θ2 / Pd (4)
become. Therefore, substituting tan θ2 of equation (1) into equation (4),
tan θ4 = Pc · {(h · tan 3θ−L1)
/ (H + L1 · tan3θ)} / Pd (5)
become.
したがって、式(2)に式(4)のtanθ4を代入すると、距離Laを、距離L1、数Pc、Pd、高さh及び俯角θ3で表すことができる。ここで、距離L1、高さh及び俯角θ3はバックカメラ49の取付状態で決まり、数Pc、Pdはバックカメラ49の仕様で規定されるので、前記距離Laを算出することができる。 Accordingly, when tan θ4 of the equation (4) is substituted into the equation (2), the distance La can be expressed by the distance L1, the number Pc, Pd, the height h, and the depression angle θ3. Here, the distance L1, the height h, and the depression angle θ3 are determined by the mounting state of the back camera 49, and the numbers Pc and Pd are defined by the specifications of the back camera 49, so that the distance La can be calculated.
本実施の形態においては、前記式(4)に式(1)のtanθ2を代入するようになっているが、式(3)のtanθ2を代入することができる。ところが、前記数Pc、Pd及びユニットサイズρは、バックカメラ49の仕様によって規定されるので、バックカメラ49の公差、バックカメラ49への陽の当たり等によってtanθ2の値が変動し、距離Laの算出精度が低くなってしまう。一方、式(1)のtanθ2は、距離L1、高さh及び俯角θ3で表されるので、tanθ2の値が変動することはなく、距離Laの算出精度を高することができる。 In the present embodiment, tan θ2 of equation (1) is substituted into equation (4), but tan θ2 of equation (3) can be substituted. However, since the numbers Pc, Pd and the unit size ρ are defined by the specifications of the back camera 49, the value of tan θ2 varies depending on the tolerance of the back camera 49, the positive hit to the back camera 49, etc. The calculation accuracy is lowered. On the other hand, tan θ2 in the expression (1) is expressed by the distance L1, the height h, and the depression angle θ3, so that the value of tan θ2 does not vary and the calculation accuracy of the distance La can be increased.
本実施の形態においては、撮像装置としてバックカメラ49が配設されるようになっているが、バックカメラ49に代えて、車両の前端の所定の箇所に取り付けられ、車両の前方を撮影するフロントカメラ(前方監視カメラ)を撮像装置として、かつ、前方監視装置として使用することができる。 In the present embodiment, a back camera 49 is provided as an imaging device. However, instead of the back camera 49, a front camera that is attached to a predetermined location at the front end of the vehicle and photographs the front of the vehicle. A camera (front monitoring camera) can be used as an imaging device and a front monitoring device.
なお、本発明は前記実施の形態に限定されるものではなく、本発明の趣旨に基づいて種々変形させることが可能であり、それらを本発明の範囲から排除するものではない。 In addition, this invention is not limited to the said embodiment, It can change variously based on the meaning of this invention, and does not exclude them from the scope of the present invention.
31 CPU
44 車速センサ
49 バックカメラ
AR1 画像領域
AR2 認識エリア
31 CPU
44 Vehicle speed sensor 49 Back camera AR1 Image area AR2 Recognition area
Claims (6)
The vehicle speed is detected, the object is photographed to generate image data, a recognition area is set in an image area where an image composed of the image data is formed, the recognition area is moved according to the vehicle speed, An image processing method characterized by recognizing a recognition object in a recognition area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005156118A JP4687244B2 (en) | 2005-05-27 | 2005-05-27 | Image processing system and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005156118A JP4687244B2 (en) | 2005-05-27 | 2005-05-27 | Image processing system and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006331217A true JP2006331217A (en) | 2006-12-07 |
JP4687244B2 JP4687244B2 (en) | 2011-05-25 |
Family
ID=37552822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005156118A Expired - Fee Related JP4687244B2 (en) | 2005-05-27 | 2005-05-27 | Image processing system and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4687244B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8213682B2 (en) | 2007-03-30 | 2012-07-03 | Aisin Aw Co., Ltd. | Feature information collecting apparatuses, methods, and programs |
JP2013032953A (en) * | 2011-08-01 | 2013-02-14 | Aisin Aw Co Ltd | Position determination device and navigation device, position determination method, and program |
JP2013083576A (en) * | 2011-10-11 | 2013-05-09 | Aisin Aw Co Ltd | Vehicle location recognition system, vehicle location recognition program, and vehicle location recognition method |
JP2016151833A (en) * | 2015-02-16 | 2016-08-22 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US10145692B2 (en) | 2015-06-26 | 2018-12-04 | Nissan Motor Co., Ltd. | Vehicle position determination apparatus and vehicle position determination method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04184603A (en) * | 1990-11-20 | 1992-07-01 | Toyota Motor Corp | Guide line detecting device |
JPH10143646A (en) * | 1996-08-28 | 1998-05-29 | Matsushita Electric Ind Co Ltd | Local position grasping device and its method |
JP2004341979A (en) * | 2003-05-19 | 2004-12-02 | Nissan Motor Co Ltd | Obstacle detection device and obstacle detecting method |
-
2005
- 2005-05-27 JP JP2005156118A patent/JP4687244B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04184603A (en) * | 1990-11-20 | 1992-07-01 | Toyota Motor Corp | Guide line detecting device |
JPH10143646A (en) * | 1996-08-28 | 1998-05-29 | Matsushita Electric Ind Co Ltd | Local position grasping device and its method |
JP2004341979A (en) * | 2003-05-19 | 2004-12-02 | Nissan Motor Co Ltd | Obstacle detection device and obstacle detecting method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8213682B2 (en) | 2007-03-30 | 2012-07-03 | Aisin Aw Co., Ltd. | Feature information collecting apparatuses, methods, and programs |
JP2013032953A (en) * | 2011-08-01 | 2013-02-14 | Aisin Aw Co Ltd | Position determination device and navigation device, position determination method, and program |
JP2013083576A (en) * | 2011-10-11 | 2013-05-09 | Aisin Aw Co Ltd | Vehicle location recognition system, vehicle location recognition program, and vehicle location recognition method |
JP2016151833A (en) * | 2015-02-16 | 2016-08-22 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US10145692B2 (en) | 2015-06-26 | 2018-12-04 | Nissan Motor Co., Ltd. | Vehicle position determination apparatus and vehicle position determination method |
Also Published As
Publication number | Publication date |
---|---|
JP4687244B2 (en) | 2011-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4852919B2 (en) | Vehicle ride control system and vehicle ride control method | |
JP4501840B2 (en) | Route guidance system and route guidance method | |
JP4771365B2 (en) | Route guidance system, route guidance method and program | |
JP4513740B2 (en) | Route guidance system and route guidance method | |
JP4729905B2 (en) | Vehicle notification device and program | |
JP2006327314A (en) | Light distribution control system and method | |
JP4470873B2 (en) | Route guidance system and route guidance method | |
JP2007127419A (en) | System and method for route guidance | |
JP2007155352A (en) | Route guide system and method | |
JP2007147577A (en) | Route guidance system and route guidance method | |
JP2007178358A (en) | System and method for route guidance | |
JP4591311B2 (en) | Route guidance system and route guidance method | |
JP2006277546A (en) | Information providing system and information providing method | |
JP2007274564A (en) | Calibration apparatus and calibration method | |
JP2006273230A (en) | Vehicle controller and vehicle control method | |
JP4613738B2 (en) | Intersection recognition system and intersection recognition method | |
JP4687244B2 (en) | Image processing system and image processing method | |
JP4581674B2 (en) | Route guidance system and route guidance method | |
JP4595866B2 (en) | Route information creation system and route information creation method | |
JP2007178359A (en) | System and method for route guidance | |
JP4572822B2 (en) | Route guidance system and route guidance method | |
JP4572823B2 (en) | Route guidance system and route guidance method | |
JP4591073B2 (en) | Route guidance system | |
JP2007271550A (en) | Route guide system and route guide method | |
JP4639901B2 (en) | Vehicle control apparatus and vehicle control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4687244 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140225 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150225 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |