JP5805619B2 - Boundary line recognition device - Google Patents
Boundary line recognition device Download PDFInfo
- Publication number
- JP5805619B2 JP5805619B2 JP2012283291A JP2012283291A JP5805619B2 JP 5805619 B2 JP5805619 B2 JP 5805619B2 JP 2012283291 A JP2012283291 A JP 2012283291A JP 2012283291 A JP2012283291 A JP 2012283291A JP 5805619 B2 JP5805619 B2 JP 5805619B2
- Authority
- JP
- Japan
- Prior art keywords
- boundary line
- image
- candidate
- line
- width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004364 calculation method Methods 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 7
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 description 11
- 238000000034 method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、車両に搭載されたカメラにより撮影された画像情報に基づいて、走路を区分する境界線を認識する境界線認識装置に関する。 The present invention relates to a boundary line recognition device for recognizing a boundary line that divides a running road based on image information taken by a camera mounted on a vehicle.
車両に搭載した撮影装置で車両前方の路面を含むシーンを撮影し、撮影した画像データから車両が走行中のレーンの左,右端白線を表す二直線を検出して、検出した二直線の交点から自車両までの二直線間の3角領域で、路面上の物体を検出することが行われている(例えば、特許文献1)。 A scene including the road surface in front of the vehicle is photographed with a photographing device mounted on the vehicle, and two straight lines representing the left and right white lines of the lane in which the vehicle is traveling are detected from the photographed image data, and from the intersection of the detected two straight lines An object on a road surface is detected in a triangular area between two straight lines up to the host vehicle (for example, Patent Document 1).
特許文献1では、自車レーンが車両の前方でカーブしている場合に、3角領域から遠方の路面が外れないようにするために、車両前方の路面が存在する画像上の領域を、車両の進行方向で複数個に分割している。そして、車両に近い分割領域から順次に、分割領域における走行中のレーンの左,右端白線の検出を行い、検出した左,右端白線の間の走行レーン領域において物体検出を行っている。 In Patent Document 1, when the vehicle lane is curved in front of the vehicle, the region on the image where the road surface in front of the vehicle is present It is divided into multiple pieces in the direction of travel. Then, sequentially from the divided area close to the vehicle, the left and right end white lines of the running lane in the divided area are detected, and the object is detected in the traveling lane area between the detected left and right end white lines.
左,右端白線を表す直線を基準にした所定領域で物体検出を行う場合、物体の検出精度を向上させるためには、左,右端白線を表す直線の誤認識を抑制する必要がある。しかしながら、車両から遠方にある白線の場合、画像上における境界線の見かけの幅は非常に狭くなる。そのため、カメラレンズのぼけにより境界線と路面とのコントラスト(エッジ強度)が低下すると、車両の遠方において、境界線に沿って並んだ路側物等を境界線と誤認識するおそれがある。特に、白線等の境界線が画像上で水平方向に傾いていると、こうした傾向が顕著となる。 When object detection is performed in a predetermined area based on a straight line representing the left and right end white lines, it is necessary to suppress erroneous recognition of the straight line representing the left and right end white lines in order to improve the object detection accuracy. However, in the case of a white line far from the vehicle, the apparent width of the boundary line on the image is very narrow. For this reason, when the contrast (edge strength) between the boundary line and the road surface decreases due to the blur of the camera lens, roadside objects and the like arranged along the boundary line may be erroneously recognized as the boundary line at a distance from the vehicle. In particular, when a boundary line such as a white line is inclined in the horizontal direction on the image, such a tendency becomes remarkable.
本発明は、上記実情に鑑み、車両の遠方における境界線の誤認識を抑制可能な境界線認識装置を提供することを主たる目的とする。 In view of the above circumstances, the present invention has as its main object to provide a boundary line recognition device capable of suppressing erroneous recognition of a boundary line at a distance from a vehicle.
上記課題を解決するため請求項1に記載の境界線認識装置は、車両に搭載されて走路を撮影するカメラと、前記カメラにより撮影された画像の輝度に基づいて、前記走路を区切る境界線のエッジ候補点を抽出し、抽出したエッジ候補点の連なりから前記境界線の候補線を抽出する境界線候補抽出部と、前記境界線候補抽出部により抽出された前記境界線の候補線において、前記画像の水平方向における前記候補線の幅、及び前記画像の垂直方向に対する前記候補線の角度から、前記候補線の前記画像上での見かけの幅を算出する幅算出部と、前記候補線が境界線としての特徴を備えている度合いが大きいほど、前記候補線が前記境界線である確率を高く算出する境界線特徴算出部と、複数の前記特徴について前記境界線特徴算出部により算出された前記確率を統合して、前記境界線を認識する境界線認識部と、を備え、複数の前記境界線としての特徴は、前記画像の不鮮明度に対する前記幅算出部により算出された前記見かけの幅の比率が所定値よりも大きいことを含む。 In order to solve the above-described problem, a boundary line recognition apparatus according to claim 1 is provided with a camera mounted on a vehicle for photographing a road and a boundary line that divides the road based on luminance of an image photographed by the camera. In the boundary line candidate extraction unit that extracts edge candidate points and extracts the boundary line candidate lines from a series of the extracted edge candidate points, and the boundary line candidate lines extracted by the boundary line candidate extraction unit, A width calculation unit that calculates an apparent width of the candidate line on the image from the width of the candidate line in the horizontal direction of the image and the angle of the candidate line with respect to the vertical direction of the image; and the candidate line is a boundary The higher the degree of having a feature as a line, the higher the probability that the candidate line is the boundary line, and a boundary line feature calculation unit that calculates a plurality of the features by the boundary line feature calculation unit A boundary line recognizing unit that recognizes the boundary line by integrating the probabilities obtained, and a plurality of features as the boundary line are calculated by the width calculating unit with respect to the unclearness of the image Including a ratio of the widths of the two being larger than a predetermined value.
請求項1に記載の境界線認識装置によれば、車両に搭載されたカメラにより撮影された画像の輝度から、走路を区切る境界線のエッジ候補点、及び境界線の候補線が抽出される。抽出された候補線の画像上での見かけの幅が算出される。また、候補線が境界線の特徴を備えている度合いが大きいほど、候補線が境界線である確率が高く算出される。そして、複数の境界線の特徴について算出された確率が統合されて、境界線が認識される。 According to the boundary line recognition apparatus of the first aspect, the edge candidate points of the boundary line and the candidate lines of the boundary line are extracted from the luminance of the image photographed by the camera mounted on the vehicle. The apparent width of the extracted candidate line on the image is calculated. Further, the probability that the candidate line is a boundary line is calculated higher as the degree of the candidate line having the boundary line feature is larger. Then, the probabilities calculated for the features of the plurality of boundary lines are integrated to recognize the boundary lines.
本願発明者は、車両の遠方において、画像の不鮮明度に対して境界線の見かけの幅が狭くなると、エッジ候補点の抽出精度が低下し、境界線に沿って設置された路側物等を境界線と誤認識するおそれが高くなることに注目した。境界線の見かけの幅が狭い所では、境界線に沿って設置された路側物等のエッジを抽出した候補線のみかけの幅も狭くなることが多い。そこで、画像の不鮮明度に対する候補線の見かけの幅の比率が所定値よりも大きいことを、複数の境界線としての特徴の一つに含めた。このため、境界線である確率の統合において、この特徴から算出された確率を反映させることにより、車両の遠方における境界線の誤認識を抑制することができる。 If the apparent width of the boundary line becomes narrower with respect to the unclearness of the image at a distance from the vehicle, the inventor of the present application decreases the extraction accuracy of the edge candidate points, and the roadside objects installed along the boundary line We focused on the increased risk of misrecognizing a line. Where the apparent width of the boundary line is narrow, the apparent width of the candidate line from which an edge of a roadside object or the like installed along the boundary line is often narrowed. Therefore, the fact that the ratio of the apparent width of the candidate line to the unclearness of the image is larger than a predetermined value is included in one of the features as a plurality of boundary lines. For this reason, in the integration of the probabilities that are boundary lines, by reflecting the probabilities calculated from these characteristics, it is possible to suppress erroneous recognition of the boundary lines in the distance of the vehicle.
図1を参照して、一実施形態に係る境界線認識装置の構成について説明する。本実施形態に係る境界線認識装置は、カメラ10、及び画像処理装置70を備える。 With reference to FIG. 1, the structure of the boundary line recognition apparatus which concerns on one Embodiment is demonstrated. The boundary line recognition apparatus according to this embodiment includes a camera 10 and an image processing apparatus 70.
カメラ10は、例えばCCDカメラであり、車両前方の走路を撮影できるように、例えばルームミラーの裏側に、車両前方を向いて固定されている。カメラ10は、車両前方の走路を撮影し、撮影した画像情報を画像処理装置70に出力する。 The camera 10 is a CCD camera, for example, and is fixed, for example, on the back side of a rearview mirror so as to face the front of the vehicle so as to capture the road ahead of the vehicle. The camera 10 captures a road ahead of the vehicle and outputs the captured image information to the image processing device 70.
画像処理装置70は、CPU、ROM、RAM、I/O、及びこれらを接続するバスライン等からなるマイクロコンピュータとして構成されている。本実施形態では、CPUがROMに記憶されたプログラムを実行することで、境界線候補抽出部20、境界線特徴算出部30、境界線認識部60の機能を実現している。 The image processing apparatus 70 is configured as a microcomputer including a CPU, a ROM, a RAM, an I / O, a bus line connecting these, and the like. In the present embodiment, the functions of the boundary line candidate extraction unit 20, the boundary line feature calculation unit 30, and the boundary line recognition unit 60 are realized by the CPU executing a program stored in the ROM.
境界線候補抽出部20は、カメラ10により撮影された画像の輝度に基づいて、走路を区切る白線等の境界線のエッジ候補点を抽出し、抽出したエッジ候補点の連なりから境界線の候補線を抽出する。画像上で車両走行方向に交差する水平方向において、画像の輝度は、1本の境界線の左右の輪郭(エッジ)部分で大きく変化する。境界線候補抽出部20は、カメラ10から取得した画像情報を所定のサンプリング周期で連続的に処理しており、画像の水平方向において、急激に輝度が変化する複数の点をエッジ候補点として抽出する。そして、抽出した複数のエッジ候補点にハフ変換を施してエッジ候補点の連なりを取得し、取得したエッジ候補点の連なりを左右の輪郭とする候補線を複数抽出する。 The boundary line candidate extraction unit 20 extracts edge candidate points of boundary lines such as white lines that divide the runway based on the luminance of the image photographed by the camera 10, and the boundary line candidate lines are obtained from the series of the extracted edge candidate points. To extract. In the horizontal direction intersecting the vehicle traveling direction on the image, the luminance of the image changes greatly at the left and right contour (edge) portions of one boundary line. The boundary line candidate extraction unit 20 continuously processes the image information acquired from the camera 10 with a predetermined sampling period, and extracts a plurality of points whose luminance changes rapidly in the horizontal direction of the image as edge candidate points. To do. Then, Hough transform is performed on the extracted plurality of edge candidate points to acquire a series of edge candidate points, and a plurality of candidate lines having the left and right contours as the acquired series of edge candidate points are extracted.
境界線特徴算出部30は、幅算出部31、投票数算出部32、エッジ強度算出部33、分岐路判定部34を備える。境界線特徴算出部30は、境界線候補抽出部20により抽出された複数の候補線のそれぞれについて、各エッジ候補点において、本線走路の境界線としての特徴を備えている度合いを算出し、特徴を備えている度合いが大きいほど、候補線が本線走路の境界線である確率を高く算出する。 The boundary line feature calculation unit 30 includes a width calculation unit 31, a vote count calculation unit 32, an edge strength calculation unit 33, and a branch path determination unit 34. The boundary line feature calculation unit 30 calculates, for each of the plurality of candidate lines extracted by the boundary line candidate extraction unit 20, the degree of having the feature as the boundary line of the main road at each edge candidate point. The greater the degree of having, the higher the probability that the candidate line is the boundary line of the main road.
本願発明者は、車両の遠方において、画像の不鮮明度に対して境界線の見かけの幅が狭くなると、境界線に沿って設置された路側物等のエッジをエッジ候補点として抽出し、路側物等を境界線と誤認識するおそれが高くなることに注目した。すなわち、画像の不鮮明度に対して境界線の幅が所定よりも広くない場合には、境界線でないものを境界線と誤認識したり、境界線を境界線でないと誤認識したりする可能性が高くなる。そこで、画像の不鮮明度に対する候補線の見かけの幅の比率が所定値よりも大きいことを、本線走路の境界線としての特徴とした。 The inventor of the present application extracts the edge of a roadside object or the like installed along the boundary line as an edge candidate point when the apparent width of the boundary line becomes narrow with respect to the unclearness of the image at a distance from the vehicle. We noticed that there is a high risk of misrecognizing etc. as boundaries. In other words, if the width of the boundary line is not wider than the predetermined value for the unclearness of the image, a non-boundary line may be misrecognized as a boundary line, or the boundary line may be misrecognized as not being a boundary line. Becomes higher. Therefore, the ratio of the apparent width of the candidate line to the unclearness of the image is larger than a predetermined value as a feature as the boundary line of the main road.
また、その他に、ハフ変換による投票数が所定数よりも多いこと、水平方向の輝度微分値で表されるエッジ強度が所定値よりも大きいこと、境界線により区切られた走路が分岐路でないことを、本線走路の境界線としての特徴とした。 In addition, the number of votes by the Hough transform is greater than the predetermined number, the edge intensity represented by the luminance differential value in the horizontal direction is greater than the predetermined value, and the runway delimited by the boundary line is not a branch road As the boundary of the main track.
幅算出部31は、各エッジ候補点において、候補線の見かけの幅を算出する。そして、画像の不鮮明度に対する算出した見かけの幅の比率が所定値よりも小さい場合に、候補線が本線走路の境界線である確率を最低にして、候補線が本線走路の境界線として認識されることを抑制する。 The width calculation unit 31 calculates the apparent width of the candidate line at each edge candidate point. Then, when the ratio of the calculated apparent width to the image blur is smaller than a predetermined value, the probability that the candidate line is the boundary of the main track is minimized, and the candidate line is recognized as the boundary of the main track. It suppresses that.
投票数算出部32は、ハフ変換による投票数が所定数よりも小さい場合に、候補線が本線走路の境界線である確率を最低にして、候補線が本線走路の境界線として認識されることを抑制する。エッジ強度算出部33は、候補線のエッジ強度が所定値よりも小さい場合に、候補線が本線走路の境界線である確率を最低にして、候補線が本線走路の境界線として認識されることを抑制する。分岐路判定部34は、候補線により区切られた走路が分岐路か否か判定し、分岐路と判定された場合は、候補線が本線走路の境界線である確率を最低にして、候補線が本線走路の境界線として認識されることを抑制する。 When the vote count by the Hough transform is smaller than a predetermined number, the vote count calculation unit 32 minimizes the probability that the candidate line is the boundary line of the main track and recognizes the candidate line as the boundary line of the main track Suppress. When the edge strength of the candidate line is smaller than a predetermined value, the edge strength calculation unit 33 minimizes the probability that the candidate line is the boundary line of the main road and recognizes the candidate line as the boundary line of the main road Suppress. The branch road determination unit 34 determines whether or not the road delimited by the candidate line is a branch road. If the branch road is determined to be a branch road, the probability that the candidate line is the boundary line of the main road is minimized and the candidate line is determined. Is recognized as the boundary of the main track.
境界線認識部60は、境界線特徴統合部40及び境界線選択部50を備え、複数の境界線としての特徴について、境界線特徴算出部30によりそれぞれ算出された確率を統合して、境界線を認識する。 The boundary line recognition unit 60 includes a boundary line feature integration unit 40 and a boundary line selection unit 50, and integrates the probabilities calculated by the boundary line feature calculation unit 30 with respect to features as a plurality of boundary lines. Recognize
境界線特徴統合部40は、図2に示す演算式を用いて、幅算出部31、投票数算出部32、エッジ強度算出部33、分岐路判定部34によりそれぞれ算出された確率を統合して、統合確率を算出する。まず、幅算出部31により算出された確率をA、投票数算出部32により算出された確率をBとして、幅算出部31及び投票数算出部32により算出された確率を統合した確率Xを算出する。さらに、幅算出部31及び投票数算出部32により算出された確率を統合した確率XをA、エッジ強度算出部33により算出された確率をBとして、幅算出部31、投票数算出部32、及びエッジ強度算出部33により算出された確率を統合した確率Xを算出する。このように順次確率を統合して、複数の境界線としての特徴について、境界線特徴算出部30によりそれぞれ算出された確率を統合する。なお、境界線の特徴は上記4つの特徴に限らない。その他の境界線としての特徴についても候補線が本線走路の境界線である確率を算出し、算出した確率を統合してもよい。 The boundary line feature integration unit 40 integrates the probabilities calculated by the width calculation unit 31, the vote count calculation unit 32, the edge strength calculation unit 33, and the branch path determination unit 34 using the arithmetic expression shown in FIG. Calculate the integration probability. First, the probability X calculated by the width calculating unit 31 is A, the probability calculated by the vote calculating unit 32 is B, and the probability X obtained by integrating the probabilities calculated by the width calculating unit 31 and the vote calculating unit 32 is calculated. To do. Further, the probability X obtained by integrating the probabilities calculated by the width calculation unit 31 and the vote number calculation unit 32 is A, and the probability calculated by the edge strength calculation unit 33 is B, the width calculation unit 31, the vote number calculation unit 32, And the probability X which integrated the probability calculated by the edge strength calculation part 33 is calculated. In this way, the probabilities are sequentially integrated, and the probabilities calculated by the boundary line feature calculating unit 30 are integrated for the features as a plurality of boundary lines. Note that the characteristics of the boundary line are not limited to the above four characteristics. For other features as the boundary line, the probability that the candidate line is the boundary line of the main road may be calculated, and the calculated probabilities may be integrated.
境界線選択部50は、境界線特徴統合部40により統合された確率に基づいて、候補線が境界線であるか否か判定し、本線走路の境界線として認識する候補線及びその候補線に含まれるエッジ候補点を選択する。詳しくは、統合された確率が境界線として判定できる判定値よりも高い候補線のうち、車両の左側と右側で対になっている候補線であり、且つ最も車両に近い候補線の車両側の輪郭を表すエッジ候補点を選択する。 The boundary line selection unit 50 determines whether the candidate line is a boundary line based on the probabilities integrated by the boundary line feature integration unit 40, and recognizes the candidate line recognized as the boundary line of the main road and the candidate line. Select included edge candidate points. Specifically, among candidate lines whose integrated probability is higher than a determination value that can be determined as a boundary line, the candidate lines that are paired on the left side and the right side of the vehicle and that are closest to the vehicle on the vehicle side Edge candidate points representing contours are selected.
なお、車両を自動制御する場合は、境界線選択部50により選択された候補線の形状に基づいて、車両の操舵量の設定や路面上の物体の検出が行われる。また、車両が選択された候補線の外にはみ出した場合には、警報音が出力される。すなわち、本線走路の境界線として選択された候補線を制御目標の境界線に設定し、車両についての種々の自動制御を実行する。 When the vehicle is automatically controlled, the vehicle steering amount is set and the object on the road surface is detected based on the shape of the candidate line selected by the boundary line selection unit 50. Further, when the vehicle is outside the selected candidate line, an alarm sound is output. That is, the candidate line selected as the boundary line of the main road is set as the boundary line of the control target, and various automatic controls are executed on the vehicle.
次に、図3を参照して、境界線である確率を算出する処理手順について詳細に説明する。本処理手順は、幅算出部31が実行する。 Next, a processing procedure for calculating the probability of being a boundary line will be described in detail with reference to FIG. This processing procedure is executed by the width calculation unit 31.
まず、S11では、画像の水平方向における候補線の幅wを算出する。続いてS12では、垂直方向(車両走行方向)に対する候補線の角度θを算出する。続いてS13では、画像上での候補線の見かけの幅を算出する。画像上での候補線の見かけの幅は、図4に示すように、候補線の延伸方向に垂直な方向における候補線の幅である。候補線の見かけの幅は、S11で算出した水平方向における候補線の幅w、及びS12で算出した垂直方向に対する候補線の角度θから、wcosθと算出される。画像上での候補線の見かけの幅の単位はピクセルになる。 First, in S11, the width w of the candidate line in the horizontal direction of the image is calculated. Subsequently, in S12, the angle θ of the candidate line with respect to the vertical direction (vehicle traveling direction) is calculated. Subsequently, in S13, the apparent width of the candidate line on the image is calculated. The apparent width of the candidate line on the image is the width of the candidate line in the direction perpendicular to the extending direction of the candidate line, as shown in FIG. The apparent width of the candidate line is calculated as wcos θ from the width w of the candidate line in the horizontal direction calculated in S11 and the angle θ of the candidate line with respect to the vertical direction calculated in S12. The unit of the apparent width of the candidate line on the image is a pixel.
続いてS14では、画像の不鮮明度を算出する。詳しくは、図5に示すように、画像の水平方向にエッジ候補点を含む周辺の輝度を微分して一次微分分布を算出し、算出した一次微分分布の所定幅を画像の不鮮明度とする。 Subsequently, in S14, the unclearness of the image is calculated. Specifically, as shown in FIG. 5, the first-order differential distribution is calculated by differentiating the peripheral luminance including the edge candidate points in the horizontal direction of the image, and the predetermined width of the calculated first-order differential distribution is set as the unclearness of the image.
画像がぼけていない理想的な状況では、画像の水平方向における輝度の一次微分分布は、境界線の左右のエッジ部分で鋭いピークとなり、広がりを持たない。これに対して、レンズの仕様や降雨等のために画像がぼけている状況では、一次微分分布は、左右のエッジ部分で広がりを持つ分布になる。それゆえ、一次微分分布の広がりの程度を表す所定幅を、画像の不鮮明度とする。 In an ideal situation where the image is not blurred, the first-order differential distribution of luminance in the horizontal direction of the image has sharp peaks at the left and right edge portions of the boundary line, and has no spread. On the other hand, in a situation where the image is blurred due to lens specifications, rain, or the like, the first-order differential distribution is a distribution having a spread at the left and right edge portions. Therefore, the predetermined width representing the extent of the first-order differential distribution is defined as the image blur.
あるいは、図6に示すように、画像の水平方向に分布したエッジ候補点を含む周辺の輝度分布において、第1所定値から第1所定値よりも大きい第2所定値までの輝度が分布する幅を画像の不鮮明度とする。 Alternatively, as shown in FIG. 6, in the peripheral luminance distribution including the edge candidate points distributed in the horizontal direction of the image, the width in which the luminance is distributed from the first predetermined value to the second predetermined value larger than the first predetermined value. Is the image blur.
画像がぼけていない理想的な状況では、画像の水平方向における境界線の輝度分布は、境界線の左右のエッジ部分において、最小輝度から最高輝度に急に立ち上がる鋭いピークをもつ分布になる。これに対して、レンズの仕様や降雨等のために画像がぼけている状況では、輝度分布は、境界線の左右のエッジ部分で鈍って広がり、最小輝度から最高輝度まで理想的な状況よりも緩やかに立ち上がる分布になる。この輝度分布において、第1所定値から第2所定値までの輝度が分布する幅は、境界線のエッジ部分の広がりの程度をよく表している。それゆえ、最高輝度に対して第1所定値から第2所定値までの輝度が分布する幅を、画像の不鮮明度とする。 In an ideal situation where the image is not blurred, the luminance distribution of the boundary line in the horizontal direction of the image is a distribution having sharp peaks that suddenly rise from the minimum luminance to the maximum luminance at the left and right edge portions of the boundary line. On the other hand, in a situation where the image is blurred due to lens specifications, rainfall, etc., the brightness distribution spreads dullly at the left and right edge portions of the boundary line, which is less than the ideal situation from the minimum brightness to the maximum brightness. The distribution rises gently. In this luminance distribution, the width in which the luminance from the first predetermined value to the second predetermined value is distributed well represents the extent of the edge portion of the boundary line. Therefore, the range in which the luminance from the first predetermined value to the second predetermined value is distributed with respect to the maximum luminance is defined as the unclearness of the image.
なお、画像上での候補線の見かけの幅方向と、一次微分分布の微分方向及び輝度分布の分布方向とは異なるが、上記2つの不鮮明度算出方法のいずれでも、おおよその不鮮明度を算出できる。また、上記2つの不鮮明度算出方法のいずれで算出しても、画像の不鮮明度は同程度の値となり、単位はピクセルになる。 Although the apparent width direction of the candidate line on the image is different from the differential direction of the primary differential distribution and the distribution direction of the luminance distribution, the approximate blur level can be calculated by either of the above two blur level calculation methods. . Moreover, even if it calculates with either of the said 2 unsharpness calculation methods, the unsharpness of an image will be a comparable value, and a unit will be a pixel.
続いてS15では、S14で算出した画像の不鮮明度とS13で算出した候補線の見かけの幅とから、画像の不鮮明度に対する候補線の見かけの幅の比率を算出する。詳しくは、候補線の見かけの幅を画像の不鮮明度で割って、この比率を算出する。 Subsequently, in S15, the ratio of the apparent width of the candidate line to the unclearness of the image is calculated from the unclearness of the image calculated in S14 and the apparent width of the candidate line calculated in S13. Specifically, the ratio is calculated by dividing the apparent width of the candidate line by the unclearness of the image.
続いてS16では、図7に示す確率マップを用いて、S15で算出した画像の不鮮明度に対する候補線の見かけの幅の比率から、候補線が境界線である確率を算出する。 Subsequently, in S16, using the probability map shown in FIG. 7, the probability that the candidate line is a boundary line is calculated from the ratio of the apparent width of the candidate line to the image blur calculated in S15.
境界線が車両の遠方にある場合、画像上での境界線の見かけの幅は、車両近辺にある場合よりも狭くなる。特に、図7に示すように、境界線が画像上で水平方向にカーブしていると、車両の遠方において、画像上での境界線の見かけの幅は非常に狭くなるとともに、境界線のエッジ部分がぼやけ易くなる。このため、車両の遠方では車両近辺よりも、画像の不鮮明度に対して、画像上で境界線の見かけの幅が狭くなるとともに、エッジ部分とそれ以外の部分との見分けが付きにくくなり、エッジ候補点及び候補線の抽出精度が低くなる。 When the boundary line is far from the vehicle, the apparent width of the boundary line on the image is narrower than when it is near the vehicle. In particular, as shown in FIG. 7, when the boundary line is curved in the horizontal direction on the image, the apparent width of the boundary line on the image becomes very narrow and the edge of the boundary line is far away from the vehicle. The part is easily blurred. For this reason, the apparent width of the boundary line is narrower on the image relative to the unclearness of the image at a distance from the vehicle than at the vicinity of the vehicle, and it is difficult to distinguish the edge portion from the other portions. The extraction accuracy of candidate points and candidate lines is lowered.
画像の不鮮明度に対する画像上での候補線の見かけの幅の比率が所定値よりも小さい場合は、画像の不鮮明度と比較して、画像上での候補線の見かけの幅が狭くなり、境界線のエッジ部分とそれ以外の部分とを区別することが困難となる。それゆえ、上記比率が所定値よりも小さい場合は、境界線である確率を所定の最低確率にし、境界線が誤認識されることを抑制する。一方、上記比率が所定の最大値よりも大きい場合、すなわち画像の不鮮明度と比較して、画像上での候補線の見かけの幅が広い場合には、候補線が境界線であるか否かの判定の信頼性が十分に高くなる。それゆえ、上記比率が所定の最大値よりも大きい場合は、境界線である確率を所定の最高確率にする。また、上記比率が所定値から所定の最大値の間の場合は、画像の不鮮明度に対する候補線の見かけの幅の比率が小さいほど、候補線が境界線である確率を小さくする。 If the ratio of the apparent width of the candidate line on the image to the unclearness of the image is smaller than the predetermined value, the apparent width of the candidate line on the image becomes narrower than the predetermined value, and the boundary It becomes difficult to distinguish the edge portion of the line from the other portion. Therefore, when the ratio is smaller than a predetermined value, the probability of being a boundary line is set to a predetermined minimum probability, and erroneous recognition of the boundary line is suppressed. On the other hand, if the above ratio is larger than a predetermined maximum value, that is, if the apparent width of the candidate line on the image is wider than the image blur, whether or not the candidate line is a boundary line. The reliability of the determination becomes sufficiently high. Therefore, when the ratio is larger than a predetermined maximum value, the probability of being a boundary line is set to a predetermined maximum probability. When the ratio is between a predetermined value and a predetermined maximum value, the probability that the candidate line is a boundary line is reduced as the ratio of the apparent width of the candidate line to the image blur is smaller.
ここで、所定の最低確率は、境界線特徴統合部40により、複数の境界線としての特徴について算出した確率を統合したときに、統合した確率を非常に低くする値であり、候補線が境界線として認識されることを抑制する値である。 Here, the predetermined minimum probability is a value that makes the integrated probability very low when the probabilities calculated for the features as the plurality of boundary lines are integrated by the boundary line feature integration unit 40, and the candidate line is a boundary. It is a value that suppresses recognition as a line.
以上で本処理を終了し、幅算出部31は、S16で算出した境界線である確率を、境界線特徴統合部40に出力する。 This processing is thus completed, and the width calculation unit 31 outputs the probability of the boundary line calculated in S16 to the boundary line feature integration unit 40.
図8(a),(b)に、画像処理装置70により境界線を認識した結果の一例を示す。白四角は境界線選択部50により選択されたエッジ候補点を示し、黒四角は除外されたエッジ候補点を示す。図8(a)は、複数の境界線としての特徴について算出された境界線である確率を統合した確率に、幅算出部31により算出された確率を反映していない場合の図である。これに対して、図8(b)は、複数の境界線としての特徴について算出された境界線である確率を統合した確率に、幅算出部31により算出された確率を反映した場合の図である。 FIGS. 8A and 8B show an example of the result of recognizing the boundary line by the image processing apparatus 70. FIG. White squares indicate edge candidate points selected by the boundary line selection unit 50, and black squares indicate excluded edge candidate points. FIG. 8A is a diagram in the case where the probability calculated by the width calculation unit 31 is not reflected in the probability obtained by integrating the probabilities of the boundary lines calculated for the features as a plurality of boundary lines. On the other hand, FIG. 8B is a diagram in the case where the probability calculated by the width calculating unit 31 is reflected on the probability obtained by integrating the probabilities of the boundary lines calculated for the features as a plurality of boundary lines. is there.
図8(a),(b)では、走路が車両の遠方でカーブしており、カーブ付近において、走路の左側に沿って定間隔でポールが設置されている。カーブ付近では、ポールのエッジがエッジ候補点として抽出されている。 8 (a) and 8 (b), the road is curved far away from the vehicle, and poles are installed at regular intervals along the left side of the road near the curve. Near the curve, pole edges are extracted as edge candidate points.
ポールを表すエッジ候補点は、境界線として選択するエッジ候補点から除外すべきであるが、図8(a)では、ポールを表すエッジ候補点のうち境界線との連続性が高い一部が、本線走路の境界線として選択されている。すなわち、カーブ付近で、ポールを表すエッジ候補点の連なりを境界線と誤認識している。これに対して図8(b)では、図8(a)で境界線と誤認識されたエッジ候補点の連なりが、本線走路の境界線として選択されていない。画像の不鮮明度に対して、ポールを表すエッジ候補点の連なりからなる候補線の見かけの幅は狭い。そのため、S11〜S16の処理を実行して算出した確率が小さくなり、境界線特徴統合部40により統合された確率を低くする。その結果、図8(b)では、ポールを表すエッジ候補点が、本線走路の境界線として選択されていない。 Edge candidate points representing poles should be excluded from edge candidate points to be selected as boundary lines. In FIG. 8A, some edge candidate points representing poles that have high continuity with the boundary lines are included. , Selected as the boundary of the main track. That is, in the vicinity of the curve, a series of edge candidate points representing poles are erroneously recognized as boundary lines. On the other hand, in FIG. 8B, a series of edge candidate points erroneously recognized as the boundary line in FIG. 8A is not selected as the boundary line of the main road. The apparent width of a candidate line made up of a series of edge candidate points representing a pole is narrow with respect to the unclearness of the image. Therefore, the probability calculated by executing the processes of S11 to S16 is reduced, and the probability of integration by the boundary line feature integration unit 40 is reduced. As a result, in FIG. 8B, the edge candidate point representing the pole is not selected as the boundary line of the main road.
以上説明した本実施形態によれば、以下の効果を奏する。 According to this embodiment described above, the following effects are obtained.
・候補線が境界線である確率の統合において、画像の不鮮明度に対する候補線の見かけの幅の比率が所定値よりも大きいことを特徴として算出した確率を反映させることにより、車両の遠方における境界線の誤認識を抑制することができる。 -In the integration of the probability that the candidate line is a boundary line, by reflecting the probability calculated by the feature that the ratio of the apparent width of the candidate line to the unclearness of the image is larger than a predetermined value, the boundary in the distance of the vehicle Misrecognition of lines can be suppressed.
・画像の不鮮明度に対する候補線の見かけの幅の比率が小さいほど、抽出された候補線が境界線である確率を小さくすることにより、境界線を誤認識することを抑制できる。 -As the ratio of the apparent width of the candidate line to the unclearness of the image is smaller, the probability that the extracted candidate line is a boundary line is reduced, so that it is possible to suppress erroneous recognition of the boundary line.
・画像の不鮮明度を、輝度の微分値分布における所定幅、又は最高輝度に対する所定輝度の分布幅に基づき算出するため、レンズの仕様及び状況を反映した不鮮明度とすることができる。 Since the image blur is calculated based on a predetermined width in the differential value distribution of luminance or a distribution width of the predetermined luminance with respect to the maximum luminance, it is possible to obtain a blur reflecting the specification and situation of the lens.
(他の実施形態)
本発明は上記実施形態の記載内容に限定されず、以下のように変更して実施してもよい。
(Other embodiments)
The present invention is not limited to the description of the above embodiment, and may be modified as follows.
・画像の水平方向に対して角度θの方向、すなわち画像上の候補線の見かけの幅方向に、エッジ候補点を含む周辺の輝度を微分して一次微分分布を算出し、算出した一次微分分布の所定幅を画像の不鮮明度としてもよい。このようにすれば、画像の不鮮明度の精度を向上させることができる。 ・ Calculate the primary differential distribution by differentiating the surrounding luminance including the edge candidate points in the direction of the angle θ with respect to the horizontal direction of the image, that is, the apparent width direction of the candidate line on the image, and calculate the primary differential distribution The predetermined width may be used as the unclearness of the image. In this way, it is possible to improve the accuracy of the unclearness of the image.
・画像の水平方向に対して角度θの方向に分布したエッジ候補点を含む周辺の輝度分布において、第1所定値から第2所定値までの輝度が分布する幅を画像の不鮮明度としてもよい。このようにすれば、画像の不鮮明度の精度を向上させることができる。 In the peripheral luminance distribution including the edge candidate points distributed in the direction of the angle θ with respect to the horizontal direction of the image, the width in which the luminance from the first predetermined value to the second predetermined value is distributed may be defined as the unclearness of the image. . In this way, it is possible to improve the accuracy of the unclearness of the image.
・カメラ10が備えるレンズのぼけ量の仕様値を画像上での長さに換算し、その換算値を画像の不鮮明度としてもよい。このようにすれば、容易に画像の不鮮明度に対する画像上での候補線の見かけの幅の比率を算出することができる。また、降雨時や降霧時以外では、精度の高い不鮮明度を取得できる。 The specification value of the amount of lens blur included in the camera 10 may be converted into a length on the image, and the converted value may be used as the unclearness of the image. In this way, the ratio of the apparent width of the candidate line on the image to the unclearness of the image can be easily calculated. In addition, it is possible to obtain high-precision blurringness when it is not raining or fogging.
・降雨時や降霧時は、雨や霧によりレンズのぼけ量よりも画像の不鮮明度が高くなるので、降雨時や降霧時には、レンズのぼけ量を増加させるように補正してもよい。具体的には、図1に破線で示すように、降雨を検出するレインセンサ11(降雨検出手段)、及び降霧を検出する霧センサ12(降霧検出手段)を車両に搭載する。そして、レインセンサ11及び霧センサ12により降雨又は降霧が検出された場合に、降雨及び降霧が検出されていない場合よりも、レンズのぼけ量の仕様値の換算値を増加させるように補正し、補正した値を画像の不鮮明度とする。 -When it is raining or fogging, the image blur is higher than the amount of lens blur due to rain or fog, so that it may be corrected to increase the lens blur amount during raining or fogging. Specifically, as shown by a broken line in FIG. 1, a rain sensor 11 (rainfall detection means) for detecting rainfall and a fog sensor 12 (fog detection means) for detecting fog are mounted on the vehicle. Then, when rain or fog is detected by the rain sensor 11 and the fog sensor 12, correction is performed so that the conversion value of the specification value of the lens blur amount is increased as compared with the case where rain and fog are not detected. The corrected value is used as the image blur.
このようにすれば、降雨時や降霧時に、画像の不鮮明度の精度を向上させることができ、ひいては境界線の誤検出をより抑制することができる。なお、レインセンサ11の代わりに、ワイパスイッチのオンにより降雨を検出し、霧センサ12の代わりにフォグランプスイッチのオンにより降霧を検出してもよい。 In this way, it is possible to improve the accuracy of the image blur during rainfall or fogging, and to further suppress erroneous detection of the boundary line. Instead of the rain sensor 11, the rain may be detected by turning on the wiper switch, and the fog may be detected by turning on the fog lamp switch instead of the fog sensor 12.
・さらに、レインセンサ11及び霧センサ12により、降雨量又は降霧量を検出し、降雨量又は降霧量が多いほど、レンズのボケ量の仕様値の換算値を大きくするように補正してもよい。このようにすれば、降雨時や降霧時に、画像の不鮮明度の精度をさらに向上させることができる。 Furthermore, the rain sensor 11 or fog sensor 12 detects the amount of rainfall or the amount of fog, and corrects the conversion value of the lens blur amount specification value to increase as the amount of rainfall or the amount of fog increases. Also good. In this way, it is possible to further improve the accuracy of the unclearness of the image during rain or fog.
・画像の不鮮明度に対する画像上での候補線の見かけの幅の比率について、上記実施形態で設定した所定値から所定の最大値の間に基準値を設定する。上記比率が基準値よりも大きい場合は、境界線である確率を例えば所定の高確率と算出し、小さい場合は境界線である確率を例えば所定の低確率と算出するようにしてもよい。すなわち、境界線である確率を不連続な二値に設定してもよい。 A reference value is set between a predetermined value set in the above embodiment and a predetermined maximum value for the ratio of the apparent width of the candidate line on the image to the unclearness of the image. If the ratio is larger than the reference value, the probability of being a boundary line may be calculated as, for example, a predetermined high probability, and if it is smaller, the probability of being a boundary line may be calculated as, for example, a predetermined low probability. That is, the probability of being a boundary line may be set to a discontinuous binary value.
10…カメラ、20…境界線候補抽出部、30…境界線特徴算出部、31…幅算出部、40…境界線特徴統合部、50…境界線選択部、60…境界線認識部、70…画像処理装置。 DESCRIPTION OF SYMBOLS 10 ... Camera, 20 ... Boundary line candidate extraction part, 30 ... Boundary line feature calculation part, 31 ... Width calculation part, 40 ... Boundary line feature integration part, 50 ... Boundary line selection part, 60 ... Boundary line recognition part, 70 ... Image processing device.
Claims (8)
前記カメラにより撮影された画像の輝度に基づいて、前記走路を区切る境界線のエッジ候補点を抽出し、抽出したエッジ候補点の連なりから前記境界線の候補線を抽出する境界線候補抽出部(20)と、
前記境界線候補抽出部により抽出された前記境界線の候補線において、前記画像の水平方向における前記候補線の幅、及び前記画像の垂直方向に対する前記候補線の角度から、前記候補線の前記画像上での見かけの幅を算出する幅算出部(31)と、
前記候補線が境界線としての特徴を備えている度合いが大きいほど、前記候補線が前記境界線である確率を高く算出する境界線特徴算出部(30)と、
複数の前記特徴について前記境界線特徴算出部により算出された前記確率を統合して、前記境界線を認識する境界線認識部(60)と、を備え、
複数の前記境界線としての特徴は、前記画像の不鮮明度に対する前記幅算出部により算出された前記見かけの幅の比率が所定値よりも大きいことを含む境界線認識装置。 A camera (10) mounted on a vehicle and shooting a runway;
A boundary candidate extraction unit that extracts edge candidate points of the boundary line that divides the runway based on the luminance of the image photographed by the camera, and extracts the candidate line of the boundary line from a series of the extracted edge candidate points ( 20)
In the candidate line of the boundary line extracted by the boundary line candidate extraction unit, the image of the candidate line is calculated from the width of the candidate line in the horizontal direction of the image and the angle of the candidate line with respect to the vertical direction of the image. A width calculation unit (31) for calculating the apparent width above;
A boundary line feature calculation unit (30) that calculates a higher probability that the candidate line is the boundary line as the degree of the candidate line having a characteristic as a boundary line increases;
A boundary line recognition unit (60) for recognizing the boundary line by integrating the probabilities calculated by the boundary line feature calculation unit for a plurality of the features,
The boundary line recognition apparatus includes a plurality of characteristics as the boundary lines, wherein a ratio of the apparent width calculated by the width calculation unit to the unclearness of the image is larger than a predetermined value.
前記降雨検出手段及び前記降霧検出手段により降雨又は降霧が検出された場合に、前記降雨及び前記降霧が検出されていない場合よりも、前記ぼけ量の仕様値の前記換算値を増加させるように補正した値にする請求項7に記載の境界線認識装置。 The vehicle includes a rain detection means (11) and a fog detection means (12),
When rain or fog is detected by the rain detection means and the fog detection means, the conversion value of the specification value of the blur amount is increased as compared to the case where the rain and the fog are not detected. The boundary line recognition apparatus according to claim 7, wherein the value is corrected as described above.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012283291A JP5805619B2 (en) | 2012-12-26 | 2012-12-26 | Boundary line recognition device |
PCT/JP2013/084866 WO2014104183A1 (en) | 2012-12-26 | 2013-12-26 | Boundary recognition device and branch assessment device |
US14/655,698 US10002433B2 (en) | 2012-12-26 | 2013-12-26 | Boundary line recognition apparatus and branch road determination apparatus |
US15/974,287 US10891738B2 (en) | 2012-12-26 | 2018-05-08 | Boundary line recognition apparatus and branch road determination apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012283291A JP5805619B2 (en) | 2012-12-26 | 2012-12-26 | Boundary line recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014127027A JP2014127027A (en) | 2014-07-07 |
JP5805619B2 true JP5805619B2 (en) | 2015-11-04 |
Family
ID=51406461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012283291A Expired - Fee Related JP5805619B2 (en) | 2012-12-26 | 2012-12-26 | Boundary line recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5805619B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6358084B2 (en) * | 2014-12-26 | 2018-07-18 | サクサ株式会社 | Image processing device |
JP6149883B2 (en) * | 2015-02-26 | 2017-06-21 | コニカミノルタ株式会社 | Image inspection apparatus and image forming apparatus |
JP6426512B2 (en) * | 2015-03-17 | 2018-11-21 | 株式会社Soken | Driving lane recognition system |
JP7007856B2 (en) * | 2017-10-27 | 2022-01-25 | 株式会社Subaru | White line recognition device for vehicles |
KR20200029785A (en) * | 2018-09-11 | 2020-03-19 | 삼성전자주식회사 | Localization method and apparatus of displaying virtual object in augmented reality |
CN113632450B (en) * | 2019-03-26 | 2023-07-04 | 株式会社小糸制作所 | Imaging system and image processing apparatus |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3102478B2 (en) * | 1998-08-17 | 2000-10-23 | 日本電気株式会社 | Linear mark detection method and device |
JP3584194B2 (en) * | 2000-02-22 | 2004-11-04 | 株式会社ホンダエレシス | White line detection method and white line detection device |
JP3986363B2 (en) * | 2002-05-20 | 2007-10-03 | アイシン精機株式会社 | Lane boundary detection device |
JP2004145501A (en) * | 2002-10-23 | 2004-05-20 | Nissan Motor Co Ltd | Road white line recognizing device |
JP4092308B2 (en) * | 2004-06-02 | 2008-05-28 | トヨタ自動車株式会社 | Boundary line detection device |
JP4506573B2 (en) * | 2005-06-15 | 2010-07-21 | 株式会社デンソー | In-vehicle fog determination device |
JP4665622B2 (en) * | 2005-06-22 | 2011-04-06 | 日産自動車株式会社 | Own vehicle position detection device, navigation device, and deceleration control device |
JP4603970B2 (en) * | 2005-12-15 | 2010-12-22 | トヨタ自動車株式会社 | Road marking line detection device |
JP5276637B2 (en) * | 2010-09-08 | 2013-08-28 | 富士重工業株式会社 | Lane estimation device |
-
2012
- 2012-12-26 JP JP2012283291A patent/JP5805619B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014127027A (en) | 2014-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014104183A1 (en) | Boundary recognition device and branch assessment device | |
US9536155B2 (en) | Marking line detection system and marking line detection method of a distant road surface area | |
CN106909876B (en) | Lane detection system and method | |
JP5805619B2 (en) | Boundary line recognition device | |
US9646214B2 (en) | Lane boundary line recognition device and computer-readable storage medium storing program of recognizing lane boundary lines on roadway | |
US9626573B2 (en) | Traffic lane marking recognition apparatus and traffic lane marking recognition program | |
US20180005073A1 (en) | Road recognition apparatus | |
JP5986949B2 (en) | Boundary line recognition device | |
US9589213B2 (en) | Apparatus for recognizing turnoff from vehicle roadway | |
US10235579B2 (en) | Vanishing point correction apparatus and method | |
US9542607B2 (en) | Lane boundary line recognition device and computer-readable storage medium storing program of recognizing lane boundary lines on roadway | |
JP2015166903A (en) | Branch road recognition apparatus | |
JP6230498B2 (en) | Object recognition device | |
JP3656056B2 (en) | Interrupting vehicle detection device and method | |
JP6483360B2 (en) | Object recognition device | |
JP2010108049A (en) | Road marking recognition device | |
JP2016162323A (en) | Travelling section line recognition device | |
US11010618B2 (en) | Apparatus for identifying line marking on road surface | |
JP2017123009A (en) | Section line recognition device | |
JP6105279B2 (en) | Branch decision device, boundary line recognition device | |
WO2019013253A1 (en) | Detection device | |
JP2018005838A (en) | Section line recognition apparatus | |
JP2017156965A (en) | Road region detection device | |
JP2020101935A (en) | Image recognition device | |
JP2009237781A (en) | Image processor for vehicle, vehicle, and image processing program for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140806 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150804 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150902 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5805619 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |