JP2009169618A - Roadside interface detection device - Google Patents

Roadside interface detection device Download PDF

Info

Publication number
JP2009169618A
JP2009169618A JP2008006228A JP2008006228A JP2009169618A JP 2009169618 A JP2009169618 A JP 2009169618A JP 2008006228 A JP2008006228 A JP 2008006228A JP 2008006228 A JP2008006228 A JP 2008006228A JP 2009169618 A JP2009169618 A JP 2009169618A
Authority
JP
Japan
Prior art keywords
boundary surface
road
imaging
feature point
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008006228A
Other languages
Japanese (ja)
Other versions
JP5012522B2 (en
Inventor
Akihiro Watanabe
章弘 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2008006228A priority Critical patent/JP5012522B2/en
Publication of JP2009169618A publication Critical patent/JP2009169618A/en
Application granted granted Critical
Publication of JP5012522B2 publication Critical patent/JP5012522B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a roadside interface detection device for detecting the interface between a road and a roadside by simple configurations. <P>SOLUTION: The roadside interface detection device includes: an imaging means for taking either the front part or rear part of a vehicle or both parts; a feature point detection means for detecting a feature point indicating the shape of an object included in an image obtained by imaging by the imaging means; and an interface specification means for specifying the interface of a road on which the vehicle is traveling and a roadside based on the distribution state of the feature points detected by the feature point detection means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、路側境界面検出装置に係り、特に、カメラ等により撮像された画像から道路と路側の境界面を検出する路側境界面検出装置に関する。   The present invention relates to a roadside boundary surface detection device, and more particularly to a roadside boundary surface detection device that detects a road and a roadside boundary surface from an image captured by a camera or the like.

近年、車両の衝突や道路からの逸脱等の事故発生の危険性を判断したり、これらの事故を自動的に回避するため、撮像された画像から道路と路側の境界面を検出して車両が走行可能な道路の範囲を認識する技術が提案されている。   In recent years, in order to determine the risk of accidents such as vehicle collisions and deviations from the road, and to automatically avoid these accidents, the vehicle is detected by detecting the interface between the road and the roadside from the captured images. Techniques for recognizing the range of roads that can be driven have been proposed.

例えば、特許文献1には、複数のカメラを備えたステレオ光学系によって車外を撮像し、ステレオ光学系で撮像された画像を処理して画像全体に渡る距離分布を計算し、計算された距離分布の情報に対応する被写体の各部分の三次元位置を計算し、三次元位置の情報を用いて道路の形状と側壁を検出する技術が開示されている。
特開平6−266828号公報
For example, in Patent Document 1, the outside of a vehicle is imaged by a stereo optical system including a plurality of cameras, the image captured by the stereo optical system is processed to calculate a distance distribution over the entire image, and the calculated distance distribution A technique is disclosed in which the three-dimensional position of each part of the subject corresponding to the information is calculated, and the shape and side walls of the road are detected using the three-dimensional position information.
JP-A-6-266828

しかしながら、上記特許文献1の技術では距離分布を求めるため、複数のカメラを備えたステレオ光学系などの測距機構が必要であり、装置構成が煩雑となる、という問題点があった。   However, the technique disclosed in Patent Document 1 requires a distance measuring mechanism such as a stereo optical system including a plurality of cameras in order to obtain a distance distribution, and there is a problem that the apparatus configuration becomes complicated.

本発明は上記問題点を解決するためになされたものであり、簡易な構成で道路と路側の境界面を検出することができる路側境界面検出装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a road-side boundary surface detection device that can detect a road-road boundary surface with a simple configuration.

上記目的を達成するため、請求項1に記載の発明は、車両の前方、後方の一方、あるいはその両方を撮像する撮像手段と、前記撮像手段による撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出する特徴点検出手段と、前記特徴点検出手段により検出された特徴点の分布状態に基づいて、前記車両が走行する道路と路側の境界面を特定する境界面特定手段と、を備えている。   In order to achieve the above object, the invention described in claim 1 is included in the image from an imaging unit that images one or both of the front and rear of the vehicle, and an image obtained by imaging by the imaging unit. A feature point detecting means for detecting a feature point indicating the shape of an object to be detected, and a boundary for identifying a road and a roadside boundary surface on which the vehicle travels based on a distribution state of the feature points detected by the feature point detecting means And surface specifying means.

請求項1記載の発明では、撮像手段により、車両の前方、後方の一方、あるいはその両方が撮像され、特徴点検出手段により、撮像手段による撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点が検出され、境界面特定手段により、特徴点検出手段により検出された特徴点の分布状態に基づいて、車両が走行する道路と路側の境界面が特定される。   According to the first aspect of the present invention, one or both of the front and rear of the vehicle is imaged by the imaging means, and the object included in the image from the image obtained by the imaging by the imaging means by the feature point detection means The feature point indicating the shape of the vehicle is detected, and the boundary surface specifying unit specifies the road surface on which the vehicle travels and the road side boundary surface based on the distribution state of the feature point detected by the feature point detecting unit.

このように、請求項1記載の発明によれば、撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出し、検出された特徴点の分布状態に基づいて、車両が走行する道路と路側の境界面を特定しているので、ステレオ光学系などの測距機構を設けることなく、簡易な構成で道路と路側の境界面を検出することができる。   As described above, according to the first aspect of the present invention, the feature points indicating the shape of the object included in the image are detected from the image obtained by imaging, and based on the distribution state of the detected feature points, Since the boundary between the road on which the vehicle runs and the roadside is specified, the boundary between the road and the roadside can be detected with a simple configuration without providing a distance measuring mechanism such as a stereo optical system.

なお、本発明の特徴点検出手段は、請求項2記載の発明のように、撮像手段による撮像によって得られた画像に対してエッジ検出を行って前記特徴点として当該画像に含まれる物体のエッジ点を検出してもよい。   The feature point detection means of the present invention performs edge detection on an image obtained by imaging by the imaging means as in the second aspect of the invention, and detects an edge of an object included in the image as the feature point. A point may be detected.

また、本発明は、請求項3記載の発明のように、前記特徴点検出手段により検出された特徴点から前記路側に存在する柱状物体による特徴点を抽出する特徴点抽出手段をさらに備え、前記境界面特定手段が、前記特徴点抽出手段により抽出された特徴点の分布状態に基づいて、前記境界面を特定してもよい。   Further, the present invention, as in the invention of claim 3, further comprises a feature point extracting means for extracting a feature point by a columnar object existing on the road side from the feature points detected by the feature point detecting means, The boundary surface specifying unit may specify the boundary surface based on the distribution state of the feature points extracted by the feature point extracting unit.

また、請求項3記載の発明の特徴点抽出手段は、請求項4記載の発明のように、前記検出手段により検出された特徴点から垂直方向に連続的に並ぶ特徴点を各々グルーピングし、当該グルーピングされた特徴点を抽出することにより前記柱状物体による特徴点を抽出してもよい。   According to a third aspect of the present invention, the feature point extracting means groups the feature points successively arranged in the vertical direction from the feature points detected by the detecting means, as in the fourth aspect of the invention. The feature points by the columnar object may be extracted by extracting the grouped feature points.

また、本発明の前記境界面特定手段は、請求項5記載の発明のように、前記撮像手段による撮像によって得られた画像の前記道路が消失する消失点に相当する予め定められた位置を原点として、当該原点から予め定められた角度範囲内で当該原点より伸びる2本の直線の角度を変えつつ当該2本の直線の間となる領域内での前記特徴点の分布状態に基づいて、前記境界面を特定してもよい。   Further, the boundary surface specifying means of the present invention, as in the fifth aspect of the present invention, sets a predetermined position corresponding to a vanishing point at which the road disappears in an image obtained by imaging by the imaging means as an origin. Based on the distribution state of the feature points in a region between the two lines while changing the angle of the two lines extending from the origin within a predetermined angle range from the origin, The boundary surface may be specified.

また、請求項5記載の発明は、請求項6記載の発明のように、前記撮像手段による撮像によって得られた画像から前記道路領域を特定して当該道路が消失する消失点の位置を推定する消失点推定手段をさらに備え、前記境界面特定手段が、前記消失点推定手段により推定された消失点の位置を原点として、前記境界面を特定してもよい。   According to a fifth aspect of the invention, as in the sixth aspect of the invention, the road area is identified from an image obtained by imaging by the imaging means, and the position of the vanishing point at which the road disappears is estimated. A vanishing point estimating unit may be further provided, and the boundary surface specifying unit may specify the boundary surface using the position of the vanishing point estimated by the vanishing point estimating unit as an origin.

以上説明したように、本発明によれば、撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出し、検出された特徴点の分布状態に基づいて、車両が走行する道路と路側の境界面を特定しているので、簡易な構成で道路と路側の境界面を検出することができる、という優れた効果を有する。   As described above, according to the present invention, the feature point indicating the shape of the object included in the image is detected from the image obtained by imaging, and the vehicle is detected based on the distribution state of the detected feature point. Since the boundary surface between the road and the road side is specified, it has an excellent effect that the boundary surface between the road and the road side can be detected with a simple configuration.

以下、図面を参照して本発明の実施の形態について詳細に説明する。なお、以下では、本発明を、車両に搭載され、ドライバの運転支援を行うドライバ支援装置に適用した場合を例として説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Hereinafter, a case where the present invention is applied to a driver support device that is mounted on a vehicle and that supports driving of a driver will be described as an example.

[第1の実施の形態]   [First Embodiment]

図1には、本実施の形態に係るドライバ支援装置10の概略構成が示されている。   FIG. 1 shows a schematic configuration of a driver support apparatus 10 according to the present embodiment.

同図に示すように、ドライバ支援装置10は、所定の検出対象領域を連続的に撮像するカメラ12と、各種情報を表示するディスプレイ14と、カメラ12による撮像により得られた画像に基づいて各種の警告を行う装置本体20と、を含んで構成されている。   As illustrated in FIG. 1, the driver support device 10 performs various operations based on a camera 12 that continuously captures a predetermined detection target area, a display 14 that displays various types of information, and an image obtained by imaging with the camera 12. And an apparatus main body 20 that performs the warning.

なお、本実施の形態に係るカメラ12は、車両の前方グリルまたはバンパなどの車両の前方側に取り付けられており、車両の前方を撮像する。   The camera 12 according to the present embodiment is attached to the front side of the vehicle, such as a front grill or a bumper of the vehicle, and images the front of the vehicle.

図1に示すように、装置本体20は、ドライバ支援装置10全体の動作を司るCPU(中央処理装置)22と、CPU22による各種処理プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)24と、後述する境界面検出処理プログラムを含む各種制御プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)26と、各種情報を記憶するHDD(ハード・ディスク・ドライブ)28と、カメラ12の撮影動作を制御するカメラ制御部30と、ディスプレイ14への画面やメッセージなどの各種情報の表示を制御する表示制御部32と、運転者へ警告を行うためのスピーカ34と、を備えている。   As shown in FIG. 1, the apparatus main body 20 includes a CPU (Central Processing Unit) 22 that controls the operation of the entire driver support apparatus 10, and a RAM (Random Access Memory) used as a work area when the CPU 22 executes various processing programs. ) 24, a ROM (Read Only Memory) 26 in which various control programs including various boundary surface detection processing programs, which will be described later, various parameters, and the like are stored in advance, an HDD (Hard Disk Drive) 28 in which various information is stored, A camera control unit 30 that controls the shooting operation of the camera 12, a display control unit 32 that controls display of various information such as a screen and a message on the display 14, and a speaker 34 that warns the driver. ing.

CPU22、RAM24、ROM26、HDD28、カメラ制御部30、表示制御部32、及びスピーカ34は、システムバスBUSを介して相互に接続されている。   The CPU 22, RAM 24, ROM 26, HDD 28, camera control unit 30, display control unit 32, and speaker 34 are connected to each other via the system bus BUS.

従って、CPU22は、RAM24、ROM26、及びHDD28に対するアクセスと、カメラ制御部30を介してカメラ12の撮影動作の制御と、表示制御部32を介したディスプレイ14に対する各種情報の表示の制御と、スピーカ34からの音声の出力の制御と、を各々行うことができる。   Accordingly, the CPU 22 accesses the RAM 24, the ROM 26, and the HDD 28, controls the photographing operation of the camera 12 through the camera control unit 30, controls the display of various information on the display 14 through the display control unit 32, and the speaker. The control of the sound output from 34 can be performed respectively.

図2には、本実施の形態に係るドライバ支援装置10の機能的な構成を示す機能ブロック図が示されている。   FIG. 2 is a functional block diagram showing a functional configuration of the driver support apparatus 10 according to the present embodiment.

同図に示されるように、ドライバ支援装置10は、境界面検出部50と、警告表示制御部58と、を備えている。   As shown in the figure, the driver support apparatus 10 includes a boundary surface detection unit 50 and a warning display control unit 58.

カメラ制御部30は、境界面検出部50、及び警告表示制御部58と接続されており、カメラ12による撮影によって得られた画像を示す画像データを順次出力する。   The camera control unit 30 is connected to the boundary surface detection unit 50 and the warning display control unit 58, and sequentially outputs image data indicating images obtained by photographing with the camera 12.

同図に示すように、境界面検出部50は、特徴点検出部52と、境界面特定部56と、を備えている。   As shown in the figure, the boundary surface detection unit 50 includes a feature point detection unit 52 and a boundary surface specification unit 56.

特徴点検出部52には、カメラ制御部30、及び境界面特定部56と接続されており、カメラ制御部30から画像データが順次入力される。   The feature point detection unit 52 is connected to the camera control unit 30 and the boundary surface specification unit 56, and image data is sequentially input from the camera control unit 30.

特徴点検出部52は、カメラ制御部30から画像データが入力されると、当該画像データにより示される画像から当該画像内に含まれる物体の形状を示す特徴点を検出しており、本実施の形態では、撮像によって得られた画像に対して微分フィルタ(例えば、ソーベルフィルタ)などを用いてエッジ検出を行って特徴点として当該画像に含まれる物体の垂直エッジ点を検出する。なお、本実施の形態では、特徴点として垂直エッジ点を検出するものとしたが、物体の形状や輪郭を表わすものであれば、これに限定されるものではない。   When the image data is input from the camera control unit 30, the feature point detection unit 52 detects a feature point indicating the shape of the object included in the image from the image indicated by the image data. In the embodiment, edge detection is performed on an image obtained by imaging using a differential filter (for example, a Sobel filter) to detect a vertical edge point of an object included in the image as a feature point. In the present embodiment, the vertical edge point is detected as the feature point, but the present invention is not limited to this as long as it represents the shape and contour of the object.

境界面特定部56は、警告表示制御部58と接続されている。   The boundary surface specifying unit 56 is connected to the warning display control unit 58.

境界面特定部56は、特徴点検出部52により検出された垂直エッジ点の分布状態に基づいて、車両が走行する道路と路側の境界面を特定するものとしており、本実施の形態では、撮像によって得られた画像の道路が消失する消失点に相当する予め定められた位置を原点として、当該原点から予め定められた角度範囲内で当該原点より伸びる2本の直線の角度を変えつつ当該2本の直線の間となる領域内での垂直エッジ点の分布状態に基づいて、境界面を特定する。   The boundary surface specifying unit 56 specifies the road surface on which the vehicle travels and the road side boundary surface based on the distribution state of the vertical edge points detected by the feature point detecting unit 52. In this embodiment, the boundary surface specifying unit 56 performs imaging. With the predetermined position corresponding to the vanishing point at which the road of the image obtained by the above disappears as the origin, the angle of two straight lines extending from the origin within the predetermined angle range from the origin is changed. A boundary surface is specified based on the distribution state of the vertical edge points in the region between the straight lines.

警告表示制御部58は、ディスプレイ14、及びスピーカ34と接続されており、カメラ制御部30から画像データが順次入力され、境界面特定部56から境界面の位置を示す位置情報が入力される。   The warning display control unit 58 is connected to the display 14 and the speaker 34, and image data is sequentially input from the camera control unit 30, and position information indicating the position of the boundary surface is input from the boundary surface specifying unit 56.

警告表示制御部58は、カメラ制御部30から順次入力される画像データにより示される画像をディスプレイ14に表示させる。また、警告表示制御部58は、境界面特定部56より入力される位置情報に基づいて、車両が走行する道路と路側の境界面と車両との間隔を求め、境界面と車両との間隔が予め定められた閾値以下となった場合に、ディスプレイ14に表示される、当該位置情報により示される境界面の表示形態を変更(例えば、境界面を赤く表示)してドライバに対して警告を発生させるものとされている。なお、この際、スピーカ34から警告音や警告メッセージ等を出力するものとしもよい。   The warning display control unit 58 causes the display 14 to display images indicated by image data sequentially input from the camera control unit 30. The warning display control unit 58 obtains the distance between the road on which the vehicle travels, the road-side boundary surface, and the vehicle based on the position information input from the boundary surface specifying unit 56, and the distance between the boundary surface and the vehicle is determined. When the threshold value is below a predetermined threshold value, the display form of the boundary surface indicated by the position information displayed on the display 14 is changed (for example, the boundary surface is displayed in red), and a warning is issued to the driver. It is supposed to let you. At this time, a warning sound, a warning message, or the like may be output from the speaker 34.

ところで、以上のように構成されたドライバ支援装置10の各構成要素(境界面検出部50(特徴点検出部52、境界面特定部56)及び警告表示制御部58)による処理は、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現することができる。但し、ソフトウェア構成による実現に限られるものではなく、ハードウェア構成や、ハードウェア構成とソフトウェア構成の組み合わせによって実現することもできることは言うまでもない。   By the way, the process by each component (the boundary surface detection part 50 (the feature point detection part 52, the boundary surface specific part 56) and the warning display control part 58) of the driver assistance apparatus 10 comprised as mentioned above performs a program. By doing so, it can be realized by a software configuration using a computer. However, the present invention is not limited to realization by a software configuration, and needless to say, it can also be realized by a hardware configuration or a combination of a hardware configuration and a software configuration.

以下では、本実施の形態に係るドライバ支援装置10が、境界面検出処理プログラムを実行することにより上記各構成要素による処理を実現するものとされている場合について説明する。この場合、当該境界面検出処理プログラムをROM26やHDD28に予めインストールしておく形態や、コンピュータ読み取り可能な記録媒体に格納された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等を適用することができる。   Below, the case where the driver assistance apparatus 10 which concerns on this Embodiment implement | achieves the process by said each component by executing a boundary surface detection processing program is demonstrated. In this case, the boundary surface detection processing program is installed in advance in the ROM 26 or HDD 28, provided in a state stored in a computer-readable recording medium, or distributed via wired or wireless communication means. The form etc. which can be applied are applicable.

次に、図3を参照して、本実施の形態に係るドライバ支援装置10の作用を説明する。なお、図3は、CPU22により実行される境界面検出処理プログラムの処理の流れを示すフローチャートである。当該境界面検出処理プログラムは、例えば、ドライバ支援装置10が搭載された車両のエンジンスイッチがオンされるなどによって図示しない車両制御装置から処理開始の指示信号が受信されるとCPU22により実行される。   Next, with reference to FIG. 3, the operation of the driver support apparatus 10 according to the present embodiment will be described. FIG. 3 is a flowchart showing the flow of processing of the boundary surface detection processing program executed by the CPU 22. The boundary surface detection processing program is executed by the CPU 22 when a processing start instruction signal is received from a vehicle control device (not shown), for example, when an engine switch of a vehicle on which the driver assistance device 10 is mounted is turned on.

同図のステップ100では、カメラ制御部30からの画像データの入力待ちを行う。   In step 100 in the figure, input of image data from the camera control unit 30 is waited.

次のステップ102では、入力された画像データにより示される画像の濃度値の変化に基づいてエッジ検出を行い、当該画像に含まれる物体の垂直エッジ点を検出する。   In the next step 102, edge detection is performed based on the change in the density value of the image indicated by the input image data, and the vertical edge point of the object included in the image is detected.

図4には、入力された画像データにより示される画像に対してエッジ検出を行った結果検出された垂直エッジ点が「×」印により示されている。   In FIG. 4, vertical edge points detected as a result of performing edge detection on the image indicated by the input image data are indicated by “x” marks.

次のステップ106では、撮像によって得られた画像の直線状の道路が消失する消失点に相当する予め定められた位置を原点Cとして、当該原点Cから境界面が存在すると予測される予め定められた角度範囲内で、原点Cより伸びる2本の直線を定める。   In the next step 106, a predetermined position corresponding to the vanishing point where the linear road of the image obtained by imaging disappears is defined as the origin C, and a predetermined boundary surface is predicted from the origin C. Two straight lines extending from the origin C are determined within the specified angle range.

次のステップ108では、2本の直線の間の領域内の垂直エッジ点の分布状態を示す値として、エッジ点数及びエッジ点密度を導出する。   In the next step 108, the number of edge points and the edge point density are derived as values indicating the distribution state of the vertical edge points in the region between the two straight lines.

ここで、本実施の形態では、図4に示すように、境界面が存在すると予測される角度範囲及び2本の直線を、原点Cより伸びる所定の基準直線(本実施の形態では原点Cの垂線)との角度θによって定めており、境界面が存在すると予測される角度範囲は、{θmin、θmax}(θmin≦θmax(例えば、θmin=30°、θmax=85°))と表わされ、原点Cより伸びる2本の直線は、直線(θb)、直線(θt)(θmin≦θb<θt≦θmax)と表される。   Here, in the present embodiment, as shown in FIG. 4, an angle range in which a boundary surface is expected to exist and two straight lines are defined by a predetermined reference straight line extending from the origin C (in this embodiment, the origin C The angle range that is defined by the angle θ with respect to the vertical line and is predicted to have a boundary surface is represented as {θmin, θmax} (θmin ≦ θmax (for example, θmin = 30 °, θmax = 85 °)). The two straight lines extending from the origin C are represented as a straight line (θb) and a straight line (θt) (θmin ≦ θb <θt ≦ θmax).

本実施の形態は、この角度範囲{θmin、θmax}内で2本の直線(θb)、直線(θt)の角度を変えつつ、直線(θb)、直線(θt)の間となる領域内での垂直エッジ点のエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)を導出している。本実施の形態では、上記ステップ106及びステップ108の処理によって、例えば、最初にθb=θminと一旦定め、当該θbからθmaxの範囲で所定角度(例えば、1°)ずつ角度を変えてθtを定めて、直線(θb)、直線(θt)の間となる領域内でのエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)を導出し、当該θbからθmaxの間の範囲の上記所定角度ずつの全ての角度でエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)の導出が終ると、θbを上記所定角度だけ角度を変えて再度θbからθmaxの範囲でθtを定めてエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)を求めることをθb=θmaxとなるまで繰り返すことにより、角度範囲{θmin、θmax}内において上記所定角度ずつ範囲が異なる全ての領域でエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)を導出している。   In the present embodiment, the angle between the two straight lines (θb) and (θt) is changed within the angle range {θmin, θmax}, and the region is between the straight lines (θb) and (θt). The number of edge points C (θb, θt) and the edge point density D (θb, θt) are derived. In the present embodiment, for example, first, θb = θmin is first determined by the processing of step 106 and step 108, and θt is determined by changing the angle by a predetermined angle (for example, 1 °) within the range of θb to θmax. Thus, the number of edge points C (θb, θt) and the edge point density D (θb, θt) in the region between the straight line (θb) and the straight line (θt) are derived, and the range between θb and θmax is derived. When derivation of the number of edge points C (θb, θt) and edge point density D (θb, θt) is completed at all the predetermined angles, θb is changed by the predetermined angle and again in the range of θb to θmax. By determining θt and obtaining the number of edge points C (θb, θt) and the edge point density D (θb, θt) until θb = θmax, the predetermined angle is set in the angle range {θmin, θmax}. Edge points C (θb, θt) in all areas circumference is different and the edge point densities D (θb, θt) is derived and.

次のステップ110では、所定角度ずつ範囲が異なる全ての領域でのエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)の導出されか否かを判定し、肯定判定となった場合はステップ112へ移行する一方、否定判定となったステップ106へ移行する。   In the next step 110, it is determined whether or not the number of edge points C (θb, θt) and the edge point density D (θb, θt) are derived in all regions having different ranges by a predetermined angle, and an affirmative determination is made. In this case, the process proceeds to step 112, while the process proceeds to step 106 where a negative determination is made.

次のステップ112では、導出された各領域におけるエッジ点数C(θb,θt)及びエッジ点密度Dから以下の(1)式を用いて評価値F(θb,θt)を算出し、評価値Fが最大となるθb,θtを特定する。   In the next step 112, an evaluation value F (θb, θt) is calculated from the derived number of edge points C (θb, θt) and edge point density D in each region using the following equation (1), and the evaluation value F .Theta.b and .theta.t at which is maximized.

F(θb,θt)=α×C(θb,θt)+β×D(θb,θt)・・・(1)   F (θb, θt) = α × C (θb, θt) + β × D (θb, θt) (1)

ここで、α、βは定数   Where α and β are constants

なお、上記α、βは、実機を用いた実験やコンピュータ・シミュレーション等により、適宜定めればよい。   Note that α and β may be appropriately determined by experiments using a real machine, computer simulation, or the like.

この評価値Fが最大となるθb,θtが車両が走行する道路と路側の境界面の位置を示している。   Θb and θt at which the evaluation value F is maximum indicate the position of the road and the boundary surface on the road side where the vehicle travels.

次のステップ114では、上記ステップ112において特定されたθb,θtに基づき、境界面と車両との間隔を求める。   In the next step 114, the distance between the boundary surface and the vehicle is obtained based on θb and θt specified in step 112 above.

次のステップ116では、ディスプレイ14に、カメラ制御部30から入力される画像データにより示される画像と共に、上記ステップ114において求めた境界面と車両との間隔が予め定められた閾値以下である場合、ドライバに対して警告を発生させる。   In the next step 116, together with the image indicated by the image data input from the camera control unit 30 on the display 14, when the distance between the boundary surface obtained in step 114 and the vehicle is equal to or smaller than a predetermined threshold value, Generate a warning to the driver.

次にステップ120では、例えば、車両のエンジンスイッチがオフされるなどによって図示しない車両制御装置から処理終了の指示信号が入力したか否かを判定し、否定判定となった場合はステップ100へ移行する一方、肯定判定となった場合は本境界面検出処理プログラムの処理が処理終了となる。   Next, in step 120, for example, it is determined whether or not a processing end instruction signal is input from a vehicle control device (not shown) by turning off the engine switch of the vehicle. If the determination is negative, the process proceeds to step 100. On the other hand, if the determination is affirmative, the process of the boundary surface detection processing program ends.

以上のように、本実施の形態によれば、カメラ12による撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出し、検出された特徴点の分布状態に基づいて、車両が走行する道路と路側の境界面を特定しているので、ステレオ光学系などの測距機構を設けることなく、簡易な構成で道路と路側の境界面を検出することができる。   As described above, according to the present embodiment, feature points indicating the shape of an object included in the image are detected from an image obtained by imaging by the camera 12, and based on the distribution state of the detected feature points. Thus, since the boundary surface between the road on which the vehicle runs and the road side is specified, the boundary surface between the road and the road side can be detected with a simple configuration without providing a distance measuring mechanism such as a stereo optical system.

[第2の実施の形態]   [Second Embodiment]

第2の実施の形態に係るドライバ支援装置10の電気系の要部構成は、上記第1の実施の形態(図1参照)と同一であるため、説明を省略する。   Since the main configuration of the electric system of the driver assistance apparatus 10 according to the second embodiment is the same as that of the first embodiment (see FIG. 1), the description thereof is omitted.

図5には、本実施の形態に係るドライバ支援装置10の機能的な構成を示す機能ブロック図が示されている。なお、同図における図2と同一の処理部分には図2と同一の符号を付して、その説明を省略する。   FIG. 5 is a functional block diagram showing a functional configuration of the driver support apparatus 10 according to the present embodiment. Note that the same reference numerals as those in FIG. 2 are attached to the same processing portions as those in FIG.

本実施の形態に係る境界面検出部50は、特徴点抽出部54をさらに備えている。   The boundary surface detection unit 50 according to the present embodiment further includes a feature point extraction unit 54.

特徴点抽出部54は、特徴点検出部52、及び境界面特定部56と接続されている。   The feature point extraction unit 54 is connected to the feature point detection unit 52 and the boundary surface specification unit 56.

特徴点抽出部54は、特徴点検出部52により検出された垂直エッジ点から路側に存在する柱状物体による垂直エッジ点を抽出しており、本実施の形態では、特徴点検出部52により検出された垂直エッジ点から垂直方向に連続的に並ぶ垂直エッジ点を各々グルーピングし、当該グルーピングされた垂直エッジ点を抽出することにより柱状物体による垂直エッジ点を抽出している。   The feature point extraction unit 54 extracts vertical edge points due to columnar objects existing on the road side from the vertical edge points detected by the feature point detection unit 52. In the present embodiment, the feature point extraction unit 54 detects the feature point detection unit 52. The vertical edge points continuously extracted in the vertical direction from the vertical edge points are grouped, and the vertical edge points by the columnar object are extracted by extracting the grouped vertical edge points.

境界面特定部56は、特徴点抽出部54、及び警告表示制御部58と接続されている。   The boundary surface specifying unit 56 is connected to the feature point extracting unit 54 and the warning display control unit 58.

境界面特定部56は、特徴点抽出部54により抽出された垂直エッジ点の分布状態に基づいて、境界面を特定する。   The boundary surface specifying unit 56 specifies the boundary surface based on the distribution state of the vertical edge points extracted by the feature point extracting unit 54.

次に、図6を参照して、本実施の形態に係る境界面検出処理プログラムの処理の流れについて説明する。なお、同図における図3と同一の処理部分には図3と同一の符号を付して、その説明を省略する。   Next, with reference to FIG. 6, the flow of processing of the boundary surface detection processing program according to the present embodiment will be described. In the figure, the same processing parts as those in FIG. 3 are denoted by the same reference numerals as those in FIG.

ステップ104では、ステップ102において検出されれた各垂直エッジ点を、図7に示すように、垂直方向に連続的に並ぶ垂直エッジ点毎に各々グルーピングし、当該グルーピングされた垂直エッジ点を柱状物体による垂直エッジ点として抽出する。   In step 104, the vertical edge points detected in step 102 are grouped for each vertical edge point continuously arranged in the vertical direction as shown in FIG. 7, and the grouped vertical edge points are columnar objects. Extracted as vertical edge points.

すなわち、上記ステップ102において検出されれた各垂直エッジ点には、様々な物体の輪郭を示す垂直エッジ点が含まれている。そこで、本実施の形態では、垂直方向に連続的に(例えば、3画素範囲以内)に並ぶ垂直エッジ点をグルーピングすることにより、柱状物体による垂直エッジ点を特定している。   That is, each vertical edge point detected in step 102 includes a vertical edge point indicating the outline of various objects. Therefore, in the present embodiment, vertical edge points due to columnar objects are specified by grouping vertical edge points that are continuously arranged in the vertical direction (for example, within a range of three pixels).

そして、ステップ108では、2本の直線の間の領域内における上記ステップ104により抽出された垂直エッジ点のエッジ点数及びエッジ点密度を導出する。   In step 108, the number of edge points and the edge point density of the vertical edge points extracted in step 104 in the region between the two straight lines are derived.

以上のように、本実施の形態によれば、垂直方向に連続的に並ぶ垂直エッジ点毎に各々グルーピングし、当該グルーピングされた垂直エッジ点を抽出することにより、柱状物体による垂直エッジ点を精度良く検出できるため、道路と路側の境界面の検出精度が向上する。   As described above, according to the present embodiment, vertical edge points due to columnar objects are accurately obtained by grouping each vertical edge point continuously arranged in the vertical direction and extracting the grouped vertical edge points. Since it can be detected well, the detection accuracy of the boundary surface between the road and the road is improved.

なお、上記各実施の形態では、垂直エッジ点の分布状態を示す値として、エッジ点数及びエッジ点密度を導出する場合について説明したが、これに限定されるもではなく、例えば、エッジ点数又はエッジ点密度の一方のみを導出し、エッジ点数又はエッジ点密度が最も大きな値となるθb,θtを特定するものとしてもよい。また、垂直エッジ点の分布状態を示す値としてもエッジ点数又はエッジ点密度に限定されるもではない。   In each of the above embodiments, the case where the number of edge points and the edge point density are derived as values indicating the distribution state of the vertical edge points has been described. However, the present invention is not limited to this. Only one of the point densities may be derived, and θb and θt at which the number of edge points or the edge point density becomes the largest value may be specified. Further, the value indicating the distribution state of the vertical edge points is not limited to the number of edge points or the edge point density.

また、上記各実施の形態では、消失点に相当する原点Cの位置を予め定めている場合について説明したが、これに限定されるもではなく、例えば、図8に示すように、カメラ12による撮像によって得られた画像から道路領域を特定して当該道路が消失する消失点の位置を推定する消失点推定部60を設け、境界面特定部56が、消失点推定部60により推定された消失点の位置を原点として、境界面を特定してもよい。   In each of the above embodiments, the case where the position of the origin C corresponding to the vanishing point is determined in advance has been described. However, the present invention is not limited to this. For example, as shown in FIG. A vanishing point estimation unit 60 that identifies a road region from an image obtained by imaging and estimates the position of the vanishing point at which the road disappears is provided, and the boundary surface identification unit 56 is the vanishing point estimated by the vanishing point estimation unit 60. The boundary surface may be specified using the point position as the origin.

すなわち、消失点推定部60が撮像によって得られた画像から道路の白線や路側線を検出し、検出した白線や路側線を近似した直線あるいは曲線を求めて消失点の位置を推定するものとしてもよい。   That is, the vanishing point estimation unit 60 may detect a white line or roadside line of a road from an image obtained by imaging, and obtain a straight line or a curve approximating the detected white line or roadside line to estimate the position of the vanishing point. Good.

また、上記各実施の形態では、車両の前方を撮像する場合について説明したが、これに限定されるもではなく、例えば、車両の後方、あるいは車両の前方、後方の両方を撮像して得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出し、検出された特徴点の分布状態に基づいて、車両が走行する道路と路側の境界面を特定するようにしてもよい。   In each of the above embodiments, the case of imaging the front of the vehicle has been described. However, the present invention is not limited to this. For example, it is obtained by imaging the rear of the vehicle or both the front and rear of the vehicle. A feature point indicating the shape of an object included in the image may be detected from the captured image, and a road on which the vehicle travels and a road-side boundary surface may be identified based on the distribution state of the detected feature point. .

その他、上記各実施の形態で説明したドライバ支援装置10の電気系の要部構成(図1参照。)、及びドライバ支援装置10の機能的な構成(図2、図5、及び図8参照。)は一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   In addition, the main configuration (see FIG. 1) of the electrical system of the driver support apparatus 10 described in the above embodiments and the functional configuration of the driver support apparatus 10 (see FIGS. 2, 5, and 8). ) Is an example, and it is needless to say that changes can be made as appropriate without departing from the gist of the present invention.

また、上記各実施の形態で説明した境界面検出処理プログラム(図3、及び図6参照。)の処理の流れも一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   The processing flow of the boundary surface detection processing program (see FIGS. 3 and 6) described in the above embodiments is also an example, and can be changed as appropriate without departing from the gist of the present invention. Needless to say.

実施の形態に係るドライバ支援装置の電気系の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the electric system of the driver assistance apparatus which concerns on embodiment. 第1の実施の形態に係るドライバ支援装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the driver assistance apparatus which concerns on 1st Embodiment. 第1の実施の形態に係る境界面検出処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the boundary surface detection processing program which concerns on 1st Embodiment. 第1の実施の形態に係る検出された垂直エッジ点から境界面を検出する際の流れを示す模式図である。It is a schematic diagram which shows the flow at the time of detecting a boundary surface from the detected vertical edge point which concerns on 1st Embodiment. 第2の実施の形態に係るドライバ支援装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the driver assistance apparatus which concerns on 2nd Embodiment. 第2の実施の形態に係る境界面検出処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the boundary surface detection processing program which concerns on 2nd Embodiment. 第2の実施の形態に係る検出された垂直エッジ点から境界面を検出する際の流れを示す模式図である。It is a schematic diagram which shows the flow at the time of detecting a boundary surface from the detected vertical edge point which concerns on 2nd Embodiment. ドライバ支援装置の他の機能的な構成を示すブロック図である。It is a block diagram which shows the other functional structure of a driver assistance apparatus.

符号の説明Explanation of symbols

10 ドライバ支援装置
12 カメラ(撮像手段)
50 境界面検出部
52 特徴点検出部(特徴点検出手段)
54 特徴点抽出部(特徴点抽出手段)
56 境界面特定部(境界面特定手段)
60 消失点推定部(消失点推定手段)
10 Driver support device 12 Camera (imaging means)
50 Boundary Surface Detection Unit 52 Feature Point Detection Unit (Feature Point Detection Unit)
54 feature point extraction unit (feature point extraction means)
56 Boundary surface identification part (Boundary surface identification means)
60 Vanishing point estimation unit (vanishing point estimation means)

Claims (6)

車両の前方、後方の一方、あるいはその両方を撮像する撮像手段と、
前記撮像手段による撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出する特徴点検出手段と、
前記特徴点検出手段により検出された特徴点の分布状態に基づいて、前記車両が走行する道路と路側の境界面を特定する境界面特定手段と、
を備えた路側境界面検出装置。
Imaging means for imaging one or both of the front and rear of the vehicle;
Feature point detection means for detecting a feature point indicating the shape of an object included in the image from an image obtained by imaging by the imaging means;
Based on the distribution state of the feature points detected by the feature point detection means, boundary surface specifying means for specifying the road surface on which the vehicle travels and the road-side boundary surface;
A roadside boundary surface detection device.
前記特徴点検出手段は、前記撮像手段による撮像によって得られた画像に対してエッジ検出を行って前記特徴点として当該画像に含まれる物体のエッジ点を検出する
請求項1記載の路側境界面検出装置。
The roadside boundary surface detection according to claim 1, wherein the feature point detection means detects an edge point of an object included in the image as the feature point by performing edge detection on an image obtained by imaging by the imaging means. apparatus.
前記特徴点検出手段により検出された特徴点から前記路側に存在する柱状物体による特徴点を抽出する特徴点抽出手段をさらに備え、
前記境界面特定手段は、前記特徴点抽出手段により抽出された特徴点の分布状態に基づいて、前記境界面を特定する
請求項1又は請求項2記載の路側境界面検出装置。
A feature point extracting means for extracting a feature point by a columnar object existing on the road side from the feature points detected by the feature point detecting means;
The road-side boundary surface detection device according to claim 1, wherein the boundary surface specifying unit specifies the boundary surface based on a distribution state of feature points extracted by the feature point extraction unit.
前記特徴点抽出手段は、前記検出手段により検出された特徴点から垂直方向に連続的に並ぶ特徴点を各々グルーピングし、当該グルーピングされた特徴点を抽出することにより前記柱状物体による特徴点を抽出する
請求項3記載の路側境界面検出装置。
The feature point extracting unit groups feature points that are continuously arranged in the vertical direction from the feature points detected by the detecting unit, and extracts the feature points by the columnar object by extracting the grouped feature points. The road-side boundary surface detection device according to claim 3.
前記境界面特定手段は、前記撮像手段による撮像によって得られた画像の前記道路が消失する消失点に相当する予め定められた位置を原点として、当該原点から予め定められた角度範囲内で当該原点より伸びる2本の直線の角度を変えつつ当該2本の直線の間となる領域内での前記特徴点の分布状態に基づいて、前記境界面を特定する
請求項1乃至請求項4の何れか1項記載の路側境界面検出装置。
The boundary surface specifying means uses the predetermined position corresponding to the vanishing point at which the road disappears in the image obtained by imaging by the imaging means as the origin, and the origin within a predetermined angle range from the origin. 5. The boundary surface is specified based on a distribution state of the feature points in a region between the two straight lines while changing an angle between the two straight lines extending further. The roadside boundary surface detection apparatus according to claim 1.
前記撮像手段による撮像によって得られた画像から前記道路領域を特定して当該道路が消失する消失点の位置を推定する消失点推定手段をさらに備え、
前記境界面特定手段は、前記消失点推定手段により推定された消失点の位置を原点として、前記境界面を特定する
請求項5記載の路側境界面検出装置。
Further comprising vanishing point estimating means for estimating the position of the vanishing point where the road disappears by specifying the road region from the image obtained by imaging by the imaging means,
The road-side boundary surface detection device according to claim 5, wherein the boundary surface specifying unit specifies the boundary surface with the position of the vanishing point estimated by the vanishing point estimation unit as an origin.
JP2008006228A 2008-01-15 2008-01-15 Roadside boundary surface detection device Expired - Fee Related JP5012522B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008006228A JP5012522B2 (en) 2008-01-15 2008-01-15 Roadside boundary surface detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008006228A JP5012522B2 (en) 2008-01-15 2008-01-15 Roadside boundary surface detection device

Publications (2)

Publication Number Publication Date
JP2009169618A true JP2009169618A (en) 2009-07-30
JP5012522B2 JP5012522B2 (en) 2012-08-29

Family

ID=40970720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008006228A Expired - Fee Related JP5012522B2 (en) 2008-01-15 2008-01-15 Roadside boundary surface detection device

Country Status (1)

Country Link
JP (1) JP5012522B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014120167A (en) * 2012-12-12 2014-06-30 Ricoh Co Ltd Method and apparatus for detecting parallax-directional continuous object by parallax diagram
JP2015203993A (en) * 2014-04-14 2015-11-16 本田技研工業株式会社 object recognition device
JP2018052461A (en) * 2016-09-30 2018-04-05 株式会社デンソー Region recognition device and region recognition method
JP2020030466A (en) * 2018-08-20 2020-02-27 株式会社Soken Object detection device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5888275B2 (en) * 2013-03-29 2016-03-16 アイシン・エィ・ダブリュ株式会社 Road edge detection system, method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186199A (en) * 1997-09-10 1999-03-30 Yazaki Corp Method and device for detecting traffic lane
JP2003030792A (en) * 2001-07-12 2003-01-31 Nissan Motor Co Ltd Device and method for discriminating type of object
WO2006098311A1 (en) * 2005-03-15 2006-09-21 Pioneer Corporation Road scene map creating device, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186199A (en) * 1997-09-10 1999-03-30 Yazaki Corp Method and device for detecting traffic lane
JP2003030792A (en) * 2001-07-12 2003-01-31 Nissan Motor Co Ltd Device and method for discriminating type of object
WO2006098311A1 (en) * 2005-03-15 2006-09-21 Pioneer Corporation Road scene map creating device, method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014120167A (en) * 2012-12-12 2014-06-30 Ricoh Co Ltd Method and apparatus for detecting parallax-directional continuous object by parallax diagram
JP2015203993A (en) * 2014-04-14 2015-11-16 本田技研工業株式会社 object recognition device
JP2018052461A (en) * 2016-09-30 2018-04-05 株式会社デンソー Region recognition device and region recognition method
JP2020030466A (en) * 2018-08-20 2020-02-27 株式会社Soken Object detection device
JP7135579B2 (en) 2018-08-20 2022-09-13 株式会社Soken Object detection device

Also Published As

Publication number Publication date
JP5012522B2 (en) 2012-08-29

Similar Documents

Publication Publication Date Title
JP4337929B2 (en) Moving state estimation device
WO2013141226A1 (en) Device and method for identifying travel section line
JP5058002B2 (en) Object detection device
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
JP4656456B2 (en) Lane marking device, lane marking detection method, and lane marking detection program
JP2008219063A (en) Apparatus and method for monitoring vehicle&#39;s surrounding
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP2011180982A (en) Lane marker detecting apparatus
JP2007188417A (en) Image recognition device, image recognition method, and image recognition program
JP2012212282A (en) Road surface state detection device, road surface state detection method, and road surface state detection program
US20150078619A1 (en) System and method for detecting obstacles using a single camera
JP5012522B2 (en) Roadside boundary surface detection device
JP4962304B2 (en) Pedestrian detection device
JP2008059178A (en) Operation support device and program
JP2007066003A (en) Stop-line detection device
JP2007264717A5 (en)
KR20170055738A (en) Apparatus and method for recognize driving lane on image
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP4532372B2 (en) Road marking line detection device
JP2018073275A (en) Image recognition device
JP2009276906A (en) Travelling information providing device
KR101568683B1 (en) Method to estimate the distance between vehicles using image alalysis and apparatus therefor
JP2009181310A (en) Road parameter estimation device
JP5914791B2 (en) Collision detection device
TWI621073B (en) Road lane detection system and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120521

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5012522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees