JP4590654B2 - Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program - Google Patents

Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program Download PDF

Info

Publication number
JP4590654B2
JP4590654B2 JP2008032027A JP2008032027A JP4590654B2 JP 4590654 B2 JP4590654 B2 JP 4590654B2 JP 2008032027 A JP2008032027 A JP 2008032027A JP 2008032027 A JP2008032027 A JP 2008032027A JP 4590654 B2 JP4590654 B2 JP 4590654B2
Authority
JP
Japan
Prior art keywords
vehicle
area
time point
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008032027A
Other languages
Japanese (ja)
Other versions
JP2009193241A (en
Inventor
伸治 長岡
裕次 横地
文則 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008032027A priority Critical patent/JP4590654B2/en
Publication of JP2009193241A publication Critical patent/JP2009193241A/en
Application granted granted Critical
Publication of JP4590654B2 publication Critical patent/JP4590654B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、車載の撮像装置を通じて得られた画像を用いてこの車両の周辺を監視する装置等に関する。   The present invention relates to an apparatus for monitoring the periphery of a vehicle using an image obtained through an in-vehicle imaging device.

車両に搭載されているカメラにより撮像された画像に基づき、歩行者等の対象物の実空間位置を測定し、当該測定結果に基づいて車両と対象物との接触可能性の高低を判定する技術が提案されている(特許文献1参照)。
特開2007−213561号公報
Technology that measures the real space position of an object such as a pedestrian based on an image captured by a camera mounted on the vehicle, and determines the level of possibility of contact between the vehicle and the object based on the measurement result Has been proposed (see Patent Document 1).
JP 2007-213561 A

しかし、車両と対象物との接触回避等の観点から、この対象物の種類が判定されることが好ましい場合がある。   However, it may be preferable to determine the type of the object from the viewpoint of avoiding contact between the vehicle and the object.

そこで、本発明は、対象物の種類を高精度で判定することができる装置等を提供することを解決課題とする。   Therefore, an object of the present invention is to provide an apparatus that can determine the type of an object with high accuracy.

第1発明の車両周辺監視装置は、車両に搭載されている一の撮像装置を通じて得られた前記車両の周辺状況を表わす画像を用いて前記車両の周辺を監視する装置であって、前記画像に基づいて対象物の存在を認識する対象物検出要素と、第1時点および第2時点のそれぞれにおける前記画像に基づいて前記対象物検出要素により検出された前記対象物が同一であるという同一性要件を満たしているか否かを判定する対象物追跡要素と、前記車両から前記対象物までの距離を測定する距離測定要素と、前記画像において前記対象物が存在する領域を第1対象物領域として設定する第1対象物領域設定要素と、前記対象物追跡要素により前記同一性要件が満たされていると判定された前記対象物について、前記距離測定要素により測定された前記第1時点における前記距離に対する前記第2時点における前記距離の比率で拡大または縮小された、前記第2時点における前記第1対象物領域を第2対象物領域として設定する第2対象物領域設定要素と、前記第2対象物領域設定要素により設定された前記第2対象物領域において、前記第1対象物領域設定要素により前記第1時点において設定された前記第1対象物領域に配置された複数の第1局所領域のそれぞれ相関度が閾値以上であり、かつ、前記第2対象物領域における位置が、前記第1時点における前記第1対象物領域における前記第1局所領域の位置との偏差が許容値以下であるような第2局所領域を探索し、探索された複数のひとまとまりの前記第2局所領域を包含する領域を第3対象物領域として設定する第3対象物領域設定要素と、前記第3対象物領域設定要素により設定された前記第3対象物領域の形状に基づき、前記対象物の種類を判定する対象物分類要素とを備えていることを特徴とする。 A vehicle periphery monitoring device according to a first aspect of the present invention is a device that monitors the periphery of the vehicle using an image representing the surrounding state of the vehicle obtained through one imaging device mounted on the vehicle, An object detection element that recognizes the presence of an object based on the same, and an identity requirement that the object detected by the object detection element based on the image at each of the first time point and the second time point is the same An object tracking element that determines whether or not the above condition is satisfied, a distance measurement element that measures a distance from the vehicle to the object, and an area where the object exists in the image is set as a first object area A first object region setting element that is measured by the distance measuring element with respect to the object that is determined to satisfy the identity requirement by the object tracking element. A second object area setting element for setting the first object area at the second time point as a second object area, enlarged or reduced at a ratio of the distance at the second time point to the distance at the first time point; In the second object area set by the second object area setting element, a plurality of objects arranged in the first object area set at the first time point by the first object area setting element The degree of correlation with each of the first local areas is greater than or equal to a threshold, and the position of the second object area is different from the position of the first local area of the first object area at the first time point. tolerance searched a second local region such that follows, the third object region for setting the searched second local region area containing a plurality of human settlement was the third object region A constant element, based on the shape of the third object region setting element and the third object region set by, characterized in that it includes a type determining object classifier of the object.

第1発明の車両周辺監視装置によれば、異なる2つの時刻(=第1時点および第2時点)のそれぞれにおける車両の周辺状況を表わす画像において設定された、同一の対象物が存在する対象物領域(=第1対象物領域)のサイズが、当該異なる2つの時刻のそれぞれにおける車両からこの対象物までの距離に基づいて揃えられる。また、第2対象物領域(=拡大または縮小された第2時点における第1対象物領域)において、第1時点における第1対象物領域に配置された第1局所領域と同一性を有する第2局所領域を包含する領域(=第3対象物領域)の形状に基づいて対象物が分類される。このような同一性を有する局所領域群には、その形状に応じた形状を有する対象物が存在している蓋然性が高いので、対象物の種類が高精度で判定されうる。   According to the vehicle periphery monitoring device of the first aspect of the present invention, there is an object having the same object set in an image representing the surrounding situation of the vehicle at two different times (= first time point and second time point). The size of the area (= first object area) is aligned based on the distance from the vehicle to the object at each of the two different times. Further, the second object region (= the first object region at the second time point enlarged or reduced) has the same identity as the first local region arranged in the first object region at the first time point. The objects are classified based on the shape of the area including the local area (= third object area). Since the local region group having such an identity has a high probability that an object having a shape corresponding to the shape exists, the type of the object can be determined with high accuracy.

第2発明の車両は、一の撮像装置と、前記撮像装置を通じて得られた前記車両の周辺状況を表わす画像を用いて前記車両の周辺を監視する第1発明の車両周辺監視装置とを備えていることを特徴とする。   A vehicle according to a second aspect of the present invention includes the imaging device according to the first aspect, and the vehicle periphery monitoring device according to the first aspect of the present invention that monitors the periphery of the vehicle using an image representing the surrounding state of the vehicle obtained through the imaging device. It is characterized by being.

第2発明の車両によれば、車両周辺監視装置により対象物の種類が高精度で判定されるので、当該判定結果に応じて車両の搭載機器の動作が車両とこの対象物との接触回避等の観点から適当に制御されうる。   According to the vehicle of the second invention, since the type of the object is determined with high accuracy by the vehicle periphery monitoring device, the operation of the on-board equipment is avoided according to the determination result, etc. From the viewpoint, it can be appropriately controlled.

第3発明の車両周辺監視プログラムは、車両に搭載されているコンピュータを、前記車両に搭載されている一の撮像装置を通じて得られた前記車両の周辺状況を表わす画像を用いて前記車両の周辺を監視する第1発明の車両周辺監視装置として機能させることを特徴とする。   According to a third aspect of the present invention, there is provided a vehicle periphery monitoring program that uses a computer mounted on a vehicle to monitor the periphery of the vehicle using an image representing the surrounding state of the vehicle obtained through one imaging device mounted on the vehicle. It is made to function as a vehicle periphery monitoring apparatus of the 1st invention to monitor.

第3発明の車両周辺監視プログラムによれば、車両に搭載されているコンピュータを、対象物の種類を高精度で判定する車両周辺監視装置として機能させることができる。   According to the vehicle periphery monitoring program of the third invention, the computer mounted on the vehicle can be caused to function as a vehicle periphery monitoring device that determines the type of the object with high accuracy.

本発明の車両周辺監視装置等の実施形態について図面を用いて説明する。   DESCRIPTION OF EMBODIMENTS Embodiments of a vehicle periphery monitoring device and the like of the present invention will be described with reference to the drawings.

図1に示されている車両(四輪自動車)1には、車両周辺監視装置10と、単一の赤外線カメラ(撮像装置)11が搭載されている。図1に示されているように原点Oが車両1の前側に位置し、X軸、Y軸およびZ軸のそれぞれが車両1の左右方向、上下方向および前後方向のそれぞれに延びるように実空間座標系が定義されている。赤外線カメラ11は車両1の前方を撮像するために、車両1の前側に取り付けられている。また、図2に示されているように車両1には、車両1のヨーレート、速度およびブレーキの状態のそれぞれに応じた信号を出力するヨーレートセンサ13、速度センサ14およびブレーキセンサ15等の種々のセンサが搭載されている。さらに、図2に示されているように車両1には音声出力装置16および画像出力装置17が搭載されている。画像出力装置17としては、車両1のフロントウィンドウに画像を表示するHUD(ヘッドアップディスプレイ)のほか、車両1の走行状況を示す表示計またはナビゲーション装置を構成するディスプレイ装置等が採用されてもよい。   A vehicle (four-wheeled vehicle) 1 shown in FIG. 1 is equipped with a vehicle periphery monitoring device 10 and a single infrared camera (imaging device) 11. As shown in FIG. 1, the real space is such that the origin O is located on the front side of the vehicle 1, and each of the X axis, the Y axis, and the Z axis extends in the left-right direction, the vertical direction, and the front-rear direction of the vehicle 1. A coordinate system is defined. The infrared camera 11 is attached to the front side of the vehicle 1 in order to image the front of the vehicle 1. As shown in FIG. 2, the vehicle 1 includes various types of sensors such as a yaw rate sensor 13, a speed sensor 14, and a brake sensor 15 that output signals corresponding to the yaw rate, speed, and brake state of the vehicle 1. A sensor is installed. Further, as shown in FIG. 2, the vehicle 1 is equipped with an audio output device 16 and an image output device 17. As the image output device 17, in addition to a HUD (head-up display) that displays an image on the front window of the vehicle 1, a display device that indicates a traveling state of the vehicle 1 or a navigation device may be employed. .

車両周辺監視装置10は赤外線カメラ11を通じて得られた画像を用いて車両1の周辺を監視する装置である。車両周辺監視装置10はコンピュータ(CPU,ROM,RAMならびにI/O回路およびA/D変換回路等の電子回路等により構成されている。)により構成されている。車両周辺監視装置10には、赤外線カメラ11、ヨーレートセンサ13、車速センサ14およびブレーキセンサ15等から出力されたアナログ信号がA/D変換回路を介してデジタル化されて入力される。当該入力データに基づき、メモリに格納されている「車両周辺監視プログラム」にしたがって、人間や他車両などの対象物の存在を認識する処理、車両1と認識した対象物との接触可能性の高低を判定する処理、および、この判定結果に応じて音声を音声出力装置16に出力させたり、画像を画像出力装置17に出力させたりする処理が当該コンピュータにより実行される。なお、プログラムは任意のタイミングでサーバからネットワークや衛星を介して車載コンピュータに配信または放送され、そのRAM等の記憶装置に格納されてもよい。車両周辺監視装置10は位置のECUにより構成されていてもよいが、分散制御システムを構成する複数のECUにより構成されていてもよい。   The vehicle periphery monitoring device 10 is a device that monitors the periphery of the vehicle 1 using an image obtained through the infrared camera 11. The vehicle periphery monitoring device 10 is configured by a computer (configured by an electronic circuit such as a CPU, a ROM, a RAM, an I / O circuit, and an A / D conversion circuit). Analog signals output from the infrared camera 11, the yaw rate sensor 13, the vehicle speed sensor 14, the brake sensor 15, and the like are digitized and input to the vehicle periphery monitoring apparatus 10 through an A / D conversion circuit. Based on the input data, according to the “vehicle periphery monitoring program” stored in the memory, processing for recognizing the presence of an object such as a human or another vehicle, and the possibility of contact with the object recognized as the vehicle 1 is high or low. And a process for outputting sound to the audio output device 16 and outputting an image to the image output device 17 in accordance with the determination result. The program may be distributed or broadcast from the server to the in-vehicle computer via a network or a satellite at an arbitrary timing, and stored in a storage device such as a RAM. The vehicle periphery monitoring device 10 may be configured by a position ECU, but may be configured by a plurality of ECUs that constitute a distributed control system.

車両周辺監視装置10は図2に示されているように対象物検出要素102と、対象物追跡要素104と、距離測定要素106と、第1対象物領域設定要素110と、第2対象物領域設定要素120と、第3対象物領域設定要素130と、対象物分類要素140とを備えている。   As shown in FIG. 2, the vehicle periphery monitoring apparatus 10 includes an object detection element 102, an object tracking element 104, a distance measurement element 106, a first object area setting element 110, and a second object area. A setting element 120, a third object area setting element 130, and an object classification element 140 are provided.

対象物検出要素102は赤外線カメラ11を通じて得られた車両1の周辺状況を表わす画像に基づいて対象物の存在を認識する。対象物追跡要素104は第1時点および第2時点のそれぞれにおける画像に基づいて対象物検出要素102により検出された対象物が同一であるという「同一性要件」を満たしているか否かを判定する。ある時刻における画像または領域とは、この時刻における車両1の周辺状況を表わす画像またはこの画像において設定された領域を意味する。距離測定要素106は車両1から対象物までの距離を測定する。第1対象物領域設定要素110は画像において対象物が存在する領域を「第1対象物領域」として設定する。第2対象物領域設定要素120は対象物追跡要素104により同一性要件が満たされていると判定された対象物について「第2対象物領域」を設定する。第2対象物設定領域は、距離測定要素106により測定された第1時点における対象物距離に対する第2時点における対象物距離の比率で拡大または縮小された、第2時点における第1対象物領域である。第3対象物領域設定要素130は第2対象物領域設定要素120により設定された第2対象物領域において、第1対象物領域設定要素110により設定された第1対象物領域に配置された第1局所領域と同一性を有する第2局所領域を包含する領域を「第3対象物領域」として設定する。対象物分類要素140は第3対象物領域設定要素130により設定された第3対象物領域の形状に基づき、対象物の種類を判定する。   The object detection element 102 recognizes the presence of the object based on an image representing the surrounding situation of the vehicle 1 obtained through the infrared camera 11. The object tracking element 104 determines whether or not the “identity requirement” that the objects detected by the object detection element 102 are the same is satisfied based on the images at the first time point and the second time point. . The image or area at a certain time means an image representing the surrounding situation of the vehicle 1 at this time or an area set in this image. The distance measuring element 106 measures the distance from the vehicle 1 to the object. The first object area setting element 110 sets an area where the object exists in the image as a “first object area”. The second object area setting element 120 sets a “second object area” for the object determined by the object tracking element 104 that the identity requirement is satisfied. The second object setting area is a first object area at the second time point that is enlarged or reduced by the ratio of the object distance at the second time point to the object distance at the first time point measured by the distance measuring element 106. is there. The third object area setting element 130 is the second object area set by the second object area setting element 120 and is arranged in the first object area set by the first object area setting element 110. A region including a second local region having the same identity as the one local region is set as a “third object region”. The object classification element 140 determines the type of the object based on the shape of the third object area set by the third object area setting element 130.

前記構成の車両1および車両周辺監視装置10の機能について説明する。   Functions of the vehicle 1 and the vehicle periphery monitoring device 10 having the above-described configuration will be described.

まず、対象物検出要素102が赤外線カメラ11を通じて得られた画像に基づき、対象物を検出する。具体的には、赤外線カメラ11の出力信号である赤外線画像がA/D変換されることによりグレースケール画像が取得される(図3/S002)。また、グレースケール画像が2値化処理されることにより2値化画像が取得される(図3/S004)。2値化処理は、グレースケール画像を構成する各画素をその輝度が閾値以上であるか否かに応じて「1」(白)および「0」(黒)に区分する処理である。グレースケール画像および2値化画像はそれぞれ別の画像メモリに記憶される。さらに、2値化画像の高輝度領域を構成する「1」に区分されたまとまった画素群が、画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)延在するラインに分類され、各ラインがその位置(画像における2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換される(図3/S006)。そして、このランレングスデータにより表されるラインのうち、画像縦方向に重なりを有するライン群のそれぞれにラベル(識別子)が付され(図3/S008)、当該ライン群が対象物として検出される(図3/S010)。これにより、図4(a)に示されているように2値化画像において斜線で示されているような対象物(2値化対象物)が検出される。対象物には人間(歩行者)などの生物のほか、他車両などの人口構造物も含まれる。なお、同一物体の複数の局所部分が対象物として認識される場合もある。   First, the object detection element 102 detects the object based on the image obtained through the infrared camera 11. Specifically, a grayscale image is acquired by A / D converting an infrared image that is an output signal of the infrared camera 11 (FIG. 3 / S002). Further, a binarized image is acquired by binarizing the grayscale image (S004 in FIG. 3). The binarization process is a process of classifying each pixel constituting the grayscale image into “1” (white) and “0” (black) according to whether or not the luminance is equal to or higher than a threshold value. The gray scale image and the binarized image are stored in separate image memories. Further, a group of pixels grouped into “1” s constituting a high-luminance region of the binarized image has a width of one pixel in the vertical direction (y direction) of the image, and the horizontal direction (x direction). The lines are classified into extending lines, and each line is converted into run-length data composed of the coordinates of the position (two-dimensional position in the image) and the length (number of pixels) (S006 in FIG. 3). Of the lines represented by the run-length data, labels (identifiers) are attached to each line group that overlaps in the vertical direction of the image (FIG. 3 / S008), and the line group is detected as an object. (FIG. 3 / S010). As a result, as shown in FIG. 4A, an object (binarized object) as indicated by diagonal lines in the binarized image is detected. The target object includes living structures such as humans (pedestrians) and artificial structures such as other vehicles. Note that a plurality of local parts of the same object may be recognized as the target object.

また、対象物追跡要素104により、対象物の追跡処理、すなわち、対象物検出要素101の演算処理周期ごとに検出された対象物が同一であるか否かを判定する処理が実行される(図3/S012)。たとえば、特開2001−6096号公報に記載されている手法にしたがって時刻k−1およびkのそれぞれの2値化画像において検出された対象物の形状やサイズ、グレースケール画像における輝度分布の相関性などに基づいて実行されうる。そして、これら対象物が同一であると判定された場合、時刻kにおける対象物のラベルが時刻k−1における対象物のラベルと同じラベルに変更される。   Further, the object tracking element 104 executes object tracking processing, that is, processing for determining whether or not the detected object is the same for each calculation processing cycle of the object detecting element 101 (see FIG. 3 / S012). For example, the shape and size of the object detected in each of the binarized images at times k-1 and k according to the method described in Japanese Patent Laid-Open No. 2001-6096, and the correlation of the luminance distribution in the grayscale image Or the like. If it is determined that these objects are the same, the label of the object at time k is changed to the same label as the label of the object at time k-1.

さらに、距離測定要素106が画像に基づき、車両1から対象物検出要素102により検出された対象物までの距離を測定する。具体的には、2値化画像における対象物の重心位置が算定され、かつ、対象物の外接四角形が設定される(図3/S014)。対象物の重心位置は、この対象物に対応するランレングスデータの各ラインの中心位置の座標に当該各ラインの長さを乗じた結果をすべてのラインについて加算し、その加算結果を画像における対象物の面積により除算することにより求められる。なお、対象物の重心に代えて、対象物の外接四角形の重心(中心)の位置が算定されてもよい。また、異なる時刻において同一のラベルが付された対象物を表わす対象物領域のサイズの変化率Rateが評価される(図3/S016)。具体的には、時刻kにおける対象物領域の大きさ(外接四角形の縦幅、横幅または面積により表わされる。)Size(k)に対する、時刻k−1における対象物領域の大きさSize(k−1)の比率が変化率Rate(k)=Size(k−1)/Size(k)(<1)として決定される。さらに、ヨーレートセンサ13および速度センサ14のそれぞれの出力に基づき、車両1の速度およびヨーレートが測定され、ヨーレートの測定値が積分されることにより、車両1の回頭角(方位角)が算出される(図3/S018)。   Further, the distance measuring element 106 measures the distance from the vehicle 1 to the object detected by the object detecting element 102 based on the image. Specifically, the position of the center of gravity of the object in the binarized image is calculated, and the circumscribed rectangle of the object is set (FIG. 3 / S014). The center of gravity position of the object is obtained by adding the result of multiplying the length of each line to the coordinates of the center position of each line of the run-length data corresponding to this object, and adding the result to the object in the image. It is obtained by dividing by the area of the object. Instead of the center of gravity of the object, the position of the center of gravity (center) of the circumscribed rectangle of the object may be calculated. Also, the rate of change Rate of the size of the object area representing the object labeled with the same label at different times is evaluated (FIG. 3 / S016). Specifically, the size of the object region at time k-1 (represented by the vertical width, width, or area of the circumscribed rectangle) Size (k) at the time k−1, Size (k− The ratio of 1) is determined as the rate of change Rate (k) = Size (k−1) / Size (k) (<1). Furthermore, the speed and yaw rate of the vehicle 1 are measured based on the respective outputs of the yaw rate sensor 13 and the speed sensor 14, and the turning value (azimuth angle) of the vehicle 1 is calculated by integrating the measured value of the yaw rate. (FIG. 3 / S018).

また、今回の変化率Rate(k)に加え、今回の速度v(k)および赤外線カメラ11の撮像時間間隔δTに基づき、式(1)にしたがって車両1から対象物までの距離Z(k)が測定される(図3/S020)。   Further, based on the current speed v (k) and the imaging time interval δT of the infrared camera 11 in addition to the current rate of change Rate (k), the distance Z (k) from the vehicle 1 to the object according to the equation (1). Is measured (FIG. 3 / S020).

Figure 0004590654
Figure 0004590654

また、車両周辺監視装置10により、車両1から対象物までの距離に基づき、この対象物の実空間位置P(k)=(X(k),Y(k),Z(k))として算定される(図3/S022)。具体的には、車両1から各対象物までの補正後の距離Z(k)と、赤外線カメラ11の焦点距離fと、撮像画像における対象物に対応した領域の画像座標x(k)およびy(k)とに基づき、式(2)にしたがって実空間座標系におけるX座標X(k)およびY座標Y(k)が算定される。撮像画像の中心、右方向および下方向のそれぞれが、画像座標系における原点o、+x方向および+y方向として定義されている。また、ヨーレートセンサ15の出力に基づいて測定される回頭角に基づき、各対象物の実空間位置(X(k),Y(k),Z(k))が回頭角補正される。   Further, the vehicle periphery monitoring device 10 calculates the actual space position P (k) = (X (k), Y (k), Z (k)) of the object based on the distance from the vehicle 1 to the object. (FIG. 3 / S022). Specifically, the corrected distance Z (k) from the vehicle 1 to each object, the focal length f of the infrared camera 11, and the image coordinates x (k) and y of the region corresponding to the object in the captured image. Based on (k), the X coordinate X (k) and Y coordinate Y (k) in the real space coordinate system are calculated according to the equation (2). The center, right direction, and downward direction of the captured image are defined as the origin o, + x direction, and + y direction in the image coordinate system. Further, based on the turning angle measured based on the output of the yaw rate sensor 15, the actual space position (X (k), Y (k), Z (k)) of each object is corrected.

Figure 0004590654
Figure 0004590654

また、第1対象物領域設定要素110により、2値化画像における対象物の重心位置および外接四角形の配置態様に基づき、グレースケール画像において対象物を表わす領域が「第1対象物領域」として設定される(図3/S024)。具体的には、まず、第1時点における車両1の周辺状況を表わすグレースケール画像において、対象物を基準として配置された複数のマスクが設定される。これにより、たとえば図4(a)に斜線で示されているように対象物の上下方向に並んで配置された複数の矩形状のマスクai+(i=1,2,‥)およびaj-(j=1,2,‥)が設定される。当該複数のマスクは、対象物の重心または中心を通り、画像において上下方向に延びる基準ライン(一点鎖線)の上に中心位置を有するように配置されている。また、第1時点より前の第2時点における車両1の周辺状況を表わすグレースケール画像において当該複数のマスクとの相関度が閾値以上となるマスクが探索される。これにより、たとえば図4(b)に示されているように第2時点における画像において、第1時点における複数のマスクai+およびaj-との相関度が閾値以上のマスクai+およびaj-が探索される。そして、対象物と、当該複数のマスクのうち、第1時点および第2時点における対象物との位置関係が同一またはほぼ同一の連続するマスクとを含む領域が第1対象物領域として設定される。これにより、たとえば図4(b)に示されているように対象物およびその下方に連続して配置されたマスクa1-〜a4-とを包含する矩形状の領域が第1対象物領域として設定される。 In addition, the first object area setting element 110 sets the area representing the object in the grayscale image as the “first object area” based on the center of gravity position of the object in the binarized image and the arrangement of the circumscribed rectangle. (FIG. 3 / S024). Specifically, first, a plurality of masks arranged with reference to the object are set in a grayscale image representing the surrounding situation of the vehicle 1 at the first time point. Thereby, for example, a plurality of rectangular masks a i + (i = 1, 2,...) And a j− arranged side by side in the vertical direction of the object, as indicated by hatching in FIG. (J = 1, 2,...) Is set. The plurality of masks are arranged so as to have a center position on a reference line (one-dot chain line) that passes through the center of gravity or center of the object and extends in the vertical direction in the image. In addition, a search is made for a mask whose degree of correlation with the plurality of masks is greater than or equal to a threshold in a grayscale image representing the surrounding situation of the vehicle 1 at a second time point before the first time point. Thus, for example, in the image at the second time point as shown in FIG. 4 (b), the mask of the correlation is above threshold and j- plurality of masks a i + and a in the first time point a i + and a j - is searched. Then, an area including the object and a continuous mask having the same or substantially the same positional relationship with the object at the first time point and the second time point among the plurality of masks is set as the first object region. . As a result, for example, as shown in FIG. 4B, a rectangular area including the object and the masks a 1-to a 4- continuously arranged below the object is a first object area. Set as

さらに、第2対象物領域設定要素120により、第2時点における第1対象物領域が拡大されることによって得られた領域が「第2対象物領域」として設定される(図3/S026)。これにより、たとえば図5(a)に示されている第2時点における第1対象物領域が拡大され、図5(b)に示されている第2対象物領域が設定される。第1対象物領域の拡大率は、距離測定要素106により測定され、第1時点における車両1から対象物までの距離に対する、第2時点における車両1から対象物までの距離の比率と同じである。なお、第2時点が第1時点より後である場合には第2時点における第1対象物領域が縮小されることによって得られる領域が第2対象物領域として設定されてもよい。   Furthermore, the area obtained by enlarging the first object area at the second time point is set as the “second object area” by the second object area setting element 120 (FIG. 3 / S026). Thereby, for example, the first object area at the second time point shown in FIG. 5A is enlarged, and the second object area shown in FIG. 5B is set. The enlargement ratio of the first object region is measured by the distance measuring element 106 and is the same as the ratio of the distance from the vehicle 1 to the object at the second time point to the distance from the vehicle 1 to the object at the first time point. . When the second time point is after the first time point, an area obtained by reducing the first object area at the second time point may be set as the second object area.

また、第3対象物領域設定要素130により、第2対象物領域において、第1対象物領域に配置された「第1局所領域」と同一性を有する「第2局所領域」を包含する領域が「第3対象物領域」として設定される(図3/S028)。具体的には、まず、第1時点における第1対象物領域に配置された複数の第1局所領域が設定される。これにより、たとえば図6(a)および(b)のそれぞれの上側に示されているように、第1時点における第1対象物領域を縦横に分割して形成された複数の矩形状の第1局所領域が設定される。なお、第1対象物領域のうち全部ではなく一部のみを覆う第1局所領域が設定されてもよく、複数の第1局所領域は相互に離反していても重なっていてもよい。また、第1局所領域の形状およびサイズは適宜変更されてもよい。そして、第2対象物領域において、第1対象物領域に設定された第1局所領域と同一性を有する第2局所領域が探索され、探索された第2局所領域を包含する領域が第3対象物領域として設定される。ここで、第1局所領域と第2局所領域とが「同一性を有する」とは、第1局所領域および第2局所領域の相関度が閾値以上であり、かつ、第1対象物領域(たとえばその左上隅角)を基準とした第1局所領域の位置と、第2対象物領域(たとえばその左上隅角)を基準とした第2局所領域の位置との偏差が許容値以下であることを意味する。これにより、たとえば図6(a)および(b)のそれぞれの下側に示されているように第2対象物領域において配置された複数のひとまとまりの第2局所領域を包含する領域が「第3対象物領域」として設定される。   In addition, the third object area setting element 130 may include an area including a “second local area” having the same identity as the “first local area” arranged in the first object area in the second object area. It is set as a “third object region” (FIG. 3 / S028). Specifically, first, a plurality of first local regions arranged in the first object region at the first time point are set. Thereby, for example, as shown in each upper side of FIGS. 6A and 6B, a plurality of first rectangular shapes formed by dividing the first object region at the first time point vertically and horizontally. A local region is set. In addition, the 1st local area | region which covers only one part instead of all the 1st object area | regions may be set, and several 1st local area | regions may mutually separate or may overlap. In addition, the shape and size of the first local region may be changed as appropriate. Then, in the second object area, a second local area having the same identity as the first local area set in the first object area is searched, and the area including the searched second local area is the third object. Set as an object area. Here, the first local region and the second local region have “identity” means that the correlation between the first local region and the second local region is equal to or greater than a threshold, and the first object region (for example, The deviation between the position of the first local region with reference to the upper left corner) and the position of the second local region with reference to the second object region (for example, the upper left corner) is less than an allowable value. means. As a result, for example, as shown on the lower side of each of FIGS. 6A and 6B, a region including a plurality of second local regions arranged in the second object region is “first”. 3 object areas ”.

そして、対象物分類要素140により、第3対象物領域の形状に基づき、対象物が分類される(図3/S030)。具体的には、記憶装置に記憶されている、物体の区分のそれぞれに対応する複数の形状のうち、第3対象物領域の形状に最も近似する形状に対応する区分に対象物が分類される。これにより、たとえば図6(a)に示されている第3対象物領域の形状に基づき、対象物が「人間」という区分に分類される。また、図6(b)に示されている第3対象物領域の形状に基づき、対象物が「鹿、犬等の動物」という区分に分類される。なお、対象物は、人間およびその他の動物という区分に加えてまたは代えて、自動車、樹木等の植物や建造物等の固定物等の区分に分類されてもよい。   Then, the object classification element 140 classifies the object based on the shape of the third object region (FIG. 3 / S030). Specifically, among the plurality of shapes corresponding to each of the object categories stored in the storage device, the object is classified into a category corresponding to a shape that most closely approximates the shape of the third object region. . Thereby, for example, based on the shape of the third object area shown in FIG. 6A, the object is classified into the category “human”. Further, based on the shape of the third object area shown in FIG. 6B, the object is classified into a category of “animals such as deer and dogs”. In addition, in addition to or instead of the classification of humans and other animals, the objects may be classified into categories such as plants such as automobiles, trees, and fixed objects such as buildings.

また、異なる時刻における各対象物の実空間位置P(k)に基づき、たとえば特開2001−6096号公報に記載された衝突可能性の判定手法にしたがって、車両1と各対象物との接触可能性の高低または有無が判定される(図3/S032)。そして、車両1と対象物との接触可能性が高いと判定された場合(図3/S032‥YES)、対象物分類要素140により判定された対象物の種類に応じた態様で注意喚起処理が実行される(図3/S034)。具体的には、当該接触可能性の判定結果および対象物の分類結果に応じた音声および画像(当該対象物を強調表示するためのフレームなど)のそれぞれが音声出力装置16および画像出力装置17のそれぞれを通じて出力される。たとえば対象物が人間に分類された場合、対象物が車両に分類された場合よりも、この対象物の存在を車両1の運転者に強く認識させるように音声および画像の出力態様が調節される。なお、当該音声および画像のうち一方のみが出力されてもよい。また、ブレーキセンサ15の出力に基づいて運転者による車両1のブレーキが操作されていないことが確認されたこと、または、速度センサ14または加速度センサ(図示略)の出力に基づいて車両1の減速度が閾値以下であることが確認されたことを要件として注意喚起処理が実行されてもよい。一方、車両1と対象物との接触可能性が低いと判定された場合(図3/S032‥NO)、注意喚起処理は実行されない。   Further, based on the real space position P (k) of each object at different times, for example, according to a collision possibility determination method described in Japanese Patent Laid-Open No. 2001-6096, the vehicle 1 can contact with each object. Whether or not the sex is high or low is determined (FIG. 3 / S032). If it is determined that the possibility of contact between the vehicle 1 and the object is high (FIG. 3 / S032... YES), the alert processing is performed in a manner corresponding to the type of the object determined by the object classification element 140. This is executed (FIG. 3 / S034). Specifically, the sound and the image (such as a frame for highlighting the target object) according to the determination result of the contact possibility and the classification result of the target object are respectively the audio output device 16 and the image output device 17. Output through each. For example, when the object is classified as a human, the output mode of sound and image is adjusted so that the driver of the vehicle 1 is more strongly aware of the presence of the object than when the object is classified as a vehicle. . Note that only one of the sound and the image may be output. Further, based on the output of the brake sensor 15, it is confirmed that the brake of the vehicle 1 is not operated by the driver, or the vehicle 1 is reduced based on the output of the speed sensor 14 or the acceleration sensor (not shown). The alerting process may be executed on the condition that it is confirmed that the speed is equal to or less than the threshold value. On the other hand, when it is determined that the possibility of contact between the vehicle 1 and the object is low (FIG. 3 / S032... NO), the alerting process is not executed.

また、車両1のステアリング装置、ブレーキ装置およびアクセル装置のうち一部または全部がアクチュエータにより操作され、車両1の走行挙動が操作される場合、注意喚起処理に代えてまたは並行して車両挙動が制御されてもよい。具体的には、車両1との接触可能性が高いと判定された対象物との接触を回避するように、または、回避が容易になるように車両1のステアリング装置、ブレーキ装置およびアクセル装置のうち一部または全部の動作が車両制御ユニット(図示略)により制御されてもよい。たとえば、運転者によるアクセルペダルの必要踏力が、対象物との接触を回避する必要がない通常の場合よりも大きくなるようにアクセル装置を制御して加速しにくくする。また、車両1と対象物との接触を回避するために要求されるステアリング装置の操舵方向側へのステアリングハンドルの要求回転力を、反対側へのステアリングハンドルの要求回転力よりも低くして、当該操舵方向側へのステアリングハンドルの操作を容易に行いうるようにする。さらに、ブレーキ装置のブレーキペダルの踏み込み量に応じた車両1の制動力の増加速度を、通常の場合よりも高くする。このようにすることで、対象物との接触を避けるための車両1の運転が容易になる。   In addition, when part or all of the steering device, the brake device, and the accelerator device of the vehicle 1 are operated by the actuator and the driving behavior of the vehicle 1 is operated, the vehicle behavior is controlled instead of or in parallel with the alerting process. May be. Specifically, the steering device, the brake device, and the accelerator device of the vehicle 1 are avoided so as to avoid contact with an object that has been determined to have a high possibility of contact with the vehicle 1 or so as to facilitate avoidance. Some or all of the operations may be controlled by a vehicle control unit (not shown). For example, the accelerator device is controlled to make acceleration difficult so that the driver's required pedaling force on the accelerator pedal is greater than in a normal case where it is not necessary to avoid contact with the object. Further, the required rotational force of the steering handle toward the steering direction of the steering device required to avoid contact between the vehicle 1 and the object is lower than the required rotational force of the steering handle toward the opposite side, The steering handle can be easily operated in the steering direction. Furthermore, the increasing speed of the braking force of the vehicle 1 according to the depression amount of the brake pedal of the brake device is made higher than in the normal case. By doing in this way, the driving | operation of the vehicle 1 for avoiding a contact with a target object becomes easy.

前記機能を発揮する車両周辺監視装置10によれば、異なる2つの時刻(=第1時点および第2時点)のそれぞれにおける車両1の周辺状況を表わす画像において設定された、同一の対象物が存在する対象物領域(=第1対象物領域)のサイズが、当該異なる2つの時刻のそれぞれにおける車両からこの対象物までの距離に基づいて揃えられる(図3/S020,S024,S026,図5(a)(b)参照)。また、第2対象物領域(=拡大または縮小された第2時点における第1対象物領域)において、第1時点における第1対象物領域に配置された第1局所領域と同一性を有する第2局所領域を包含する領域(=第3対象物領域)の形状に基づいて対象物が分類される(図3/S028,図6(a)(b)参照)。このような同一性を有する局所領域群には、その形状に応じた形状を有する対象物が存在している蓋然性が高いので、対象物の種類が高精度で判定されうる。   According to the vehicle periphery monitoring device 10 that performs the above function, there is the same object set in the images representing the surroundings of the vehicle 1 at two different times (= first time point and second time point). The size of the target object area (= first target object area) is aligned based on the distance from the vehicle to the target object at each of the two different times (FIG. 3 / S020, S024, S026, FIG. 5). a) (b)). Further, the second object region (= the first object region at the second time point enlarged or reduced) has the same identity as the first local region arranged in the first object region at the first time point. The objects are classified based on the shape of the area including the local area (= third object area) (see FIG. 3 / S028 and FIGS. 6A and 6B). Since the local region group having such an identity has a high probability that an object having a shape corresponding to the shape exists, the type of the object can be determined with high accuracy.

そして、当該対象物の分類結果に応じて車両1の搭載機器(音声出力装置16、画像出力装置17、ステアリング装置、ブレーキ装置およびアクセル装置)の動作が車両1とこの対象物との接触回避等の観点から適当に制御されうる。   Then, depending on the classification result of the target object, the operation of the equipment mounted on the vehicle 1 (sound output device 16, image output device 17, steering device, brake device, and accelerator device) avoids contact between the vehicle 1 and the target object. From the viewpoint, it can be appropriately controlled.

なお、前記実施形態では一の赤外線カメラ(単眼カメラ)を用いて、車両1から対象物までの距離が測定されたが、他の実施形態としてミリ波レーダ、レーザレーダまたは超音波レーダ等が用いられて車両1から対象物までの距離が測定されてもよい。さらに他の実施形態として車両の前側中央部を基準として左右対称に配置された一対の赤外線カメラの視差を用いて当該距離が算出されてもよい。また、撮像装置として赤外線カメラ11に代えて可視光等、他の波長領域に感度が調節されたカメラが採用されてもよい。   In the above embodiment, the distance from the vehicle 1 to the object is measured using one infrared camera (monocular camera). However, as another embodiment, a millimeter wave radar, a laser radar, an ultrasonic radar, or the like is used. And the distance from the vehicle 1 to the object may be measured. In yet another embodiment, the distance may be calculated using parallax of a pair of infrared cameras arranged symmetrically with respect to the front center of the vehicle. Further, instead of the infrared camera 11, a camera whose sensitivity is adjusted to another wavelength region such as visible light may be employed as the imaging device.

本発明の車両の構成説明図Configuration diagram of the vehicle of the present invention 本発明の車両周辺監視装置の構成説明図Configuration explanatory diagram of the vehicle periphery monitoring device of the present invention 本発明の車両周辺監視装置の機能を示すフローチャートThe flowchart which shows the function of the vehicle periphery monitoring apparatus of this invention 第1対象物領域の設定方法に関する説明図Explanatory drawing about the setting method of the 1st object field 第2対象物領域の設定方法に関する説明図Explanatory drawing about the setting method of the 2nd object field 第3対象物領域の設定方法に関する説明図Explanatory drawing about the setting method of the 3rd object field

符号の説明Explanation of symbols

1‥車両、10‥車両周辺監視装置、11‥赤外線カメラ(撮像装置) DESCRIPTION OF SYMBOLS 1 ... Vehicle, 10 ... Vehicle periphery monitoring apparatus, 11 ... Infrared camera (imaging device)

Claims (3)

車両に搭載されている一の撮像装置を通じて得られた前記車両の周辺状況を表わす画像を用いて前記車両の周辺を監視する装置であって、
前記画像に基づいて対象物の存在を認識する対象物検出要素と、
第1時点および第2時点のそれぞれにおける前記画像に基づいて前記対象物検出要素により検出された前記対象物が同一であるという同一性要件を満たしているか否かを判定する対象物追跡要素と、
前記車両から前記対象物までの距離を測定する距離測定要素と、
前記画像において前記対象物が存在する領域を第1対象物領域として設定する第1対象物領域設定要素と、
前記対象物追跡要素により前記同一性要件が満たされていると判定された前記対象物について、前記距離測定要素により測定された前記第1時点における前記距離に対する前記第2時点における前記距離の比率で拡大または縮小された、前記第2時点における前記第1対象物領域を第2対象物領域として設定する第2対象物領域設定要素と、
前記第2対象物領域設定要素により設定された前記第2対象物領域において、前記第1対象物領域設定要素により前記第1時点において設定された前記第1対象物領域に配置された複数の第1局所領域のそれぞれ相関度が閾値以上であり、かつ、前記第2対象物領域における位置が、前記第1時点における前記第1対象物領域における前記第1局所領域の位置との偏差が許容値以下であるような第2局所領域を探索し、探索された複数のひとまとまりの前記第2局所領域を包含する領域を第3対象物領域として設定する第3対象物領域設定要素と、
前記第3対象物領域設定要素により設定された前記第3対象物領域の形状に基づき、前記対象物の種類を判定する対象物分類要素とを備えていることを特徴とする車両周辺監視装置。
An apparatus for monitoring the periphery of the vehicle using an image representing the surrounding situation of the vehicle obtained through one imaging device mounted on the vehicle,
An object detection element for recognizing the presence of the object based on the image;
An object tracking element for determining whether the objects detected by the object detection element based on the images at each of the first time point and the second time point satisfy the identity requirement that they are the same;
A distance measuring element for measuring a distance from the vehicle to the object;
A first object area setting element for setting an area where the object exists in the image as a first object area;
A ratio of the distance at the second time point to the distance at the first time point measured by the distance measuring element for the object that is determined by the object tracking element to satisfy the identity requirement. A second object area setting element that sets the first object area at the second time point, which is enlarged or reduced, as a second object area;
In the second object region set by the second object region setting element, a plurality of the disposed in the first object region which is set in the first time point by the first object region setting element No. The degree of correlation with each of the local areas is equal to or greater than a threshold, and the position in the second object area is allowed to deviate from the position of the first local area in the first object area at the first time point. A third object region setting element that searches for a second local region that is less than or equal to a value , and sets a region that includes the searched second local region as a third object region;
A vehicle periphery monitoring device comprising: an object classification element for determining a type of the object based on a shape of the third object area set by the third object area setting element.
一の撮像装置と、前記撮像装置を通じて得られた前記車両の周辺状況を表わす画像を用いて前記車両の周辺を監視する請求項1記載の車両周辺監視装置とを備えていることを特徴とする車両。 The vehicle periphery monitoring device according to claim 1, wherein the vehicle periphery monitoring device monitors the periphery of the vehicle by using an image representing the surrounding state of the vehicle obtained through the image pickup device. vehicle. 車両に搭載されているコンピュータを、前記車両に搭載されている一の撮像装置を通じて得られた前記車両の周辺状況を表わす画像を用いて前記車両の周辺を監視する請求項1記載の車両周辺監視装置として機能させることを特徴とする車両周辺監視プログラム。 The vehicle periphery monitoring according to claim 1, wherein a computer mounted on the vehicle monitors the periphery of the vehicle using an image representing a surrounding state of the vehicle obtained through one imaging device mounted on the vehicle. A vehicle periphery monitoring program, which functions as a device.
JP2008032027A 2008-02-13 2008-02-13 Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program Expired - Fee Related JP4590654B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008032027A JP4590654B2 (en) 2008-02-13 2008-02-13 Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008032027A JP4590654B2 (en) 2008-02-13 2008-02-13 Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program

Publications (2)

Publication Number Publication Date
JP2009193241A JP2009193241A (en) 2009-08-27
JP4590654B2 true JP4590654B2 (en) 2010-12-01

Family

ID=41075209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008032027A Expired - Fee Related JP4590654B2 (en) 2008-02-13 2008-02-13 Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program

Country Status (1)

Country Link
JP (1) JP4590654B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6972798B2 (en) * 2016-11-22 2021-11-24 株式会社リコー Information processing device, image pickup device, device control system, mobile body, information processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003151096A (en) * 2001-11-19 2003-05-23 Honda Motor Co Ltd Ingression warning device
JP2006185434A (en) * 2004-11-30 2006-07-13 Honda Motor Co Ltd Vehicle circumference monitoring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003151096A (en) * 2001-11-19 2003-05-23 Honda Motor Co Ltd Ingression warning device
JP2006185434A (en) * 2004-11-30 2006-07-13 Honda Motor Co Ltd Vehicle circumference monitoring device

Also Published As

Publication number Publication date
JP2009193241A (en) 2009-08-27

Similar Documents

Publication Publication Date Title
JP4521642B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program
US8766816B2 (en) System for monitoring the area around a vehicle
US9067537B2 (en) Vehicle periphery monitoring device
JP4271720B1 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP4486997B2 (en) Vehicle periphery monitoring device
JP4171501B2 (en) Vehicle periphery monitoring device
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
EP2312550B1 (en) Vehicle periphery monitoring device
US7885430B2 (en) Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program
JP4716294B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program
JP4590654B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program
JP4743797B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program
JP5026398B2 (en) Vehicle periphery monitoring device
JP4496383B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, vehicle periphery monitoring program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100827

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140924

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees