JP2010191637A - Driving support device for vehicle - Google Patents

Driving support device for vehicle Download PDF

Info

Publication number
JP2010191637A
JP2010191637A JP2009034577A JP2009034577A JP2010191637A JP 2010191637 A JP2010191637 A JP 2010191637A JP 2009034577 A JP2009034577 A JP 2009034577A JP 2009034577 A JP2009034577 A JP 2009034577A JP 2010191637 A JP2010191637 A JP 2010191637A
Authority
JP
Japan
Prior art keywords
search
feature point
feature
points
point search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009034577A
Other languages
Japanese (ja)
Other versions
JP5392473B2 (en
Inventor
Koji Iwase
耕二 岩瀬
Haruhisa Kore
治久 是
Satoru Matsuoka
悟 松岡
Takanori Kume
孝則 久米
Kumiko Maebashi
久美子 前橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2009034577A priority Critical patent/JP5392473B2/en
Publication of JP2010191637A publication Critical patent/JP2010191637A/en
Application granted granted Critical
Publication of JP5392473B2 publication Critical patent/JP5392473B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce any labor to perform processing for searching for a corresponding point corresponding to the feature points of a reference image. <P>SOLUTION: A feature point search regions 42 for suburbs of a reference image memory 20 is divided into 8 divisions 42-1 to 42-8. A corresponding point search range 44 of a reference memory 22 is divided into 8 divisions 44-1 to 44-8. Each of the divisions is given priority corresponding to collision risks, and the search of feature points is performed in the search region division 42-1 and 42-2 of the first order (S4), and when the feature points have been extracted, the search of the corresponding points is performed in the corresponding point search divisions 44-3 and 44-4 for suburbs of the first priority of the reference memory 22 (S7). A distance L to an obstacle is calculated based on the parallax of the extracted feature points and corresponding points (S11). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は車両用運転支援装置に関し、より詳しくは三角測量の原理に従って障害物までの距離を算出する車両用運転支援装置に関する。   The present invention relates to a vehicle driving support device, and more particularly to a vehicle driving support device that calculates a distance to an obstacle according to the principle of triangulation.

車両走行の安全性を向上する一つの手段として、互いに離間して配置した複数のカメラを用意し、この複数のカメラから取り込んだ画像データから視差を求めて、この視差によって障害物の有無や障害物までの距離などを計測する運転支援装置が知られている(例えば特許文献1、2)。   As one means for improving vehicle safety, a plurality of cameras arranged separately from each other are prepared, and parallax is obtained from image data captured from the plurality of cameras. A driving support device that measures a distance to an object is known (for example, Patent Documents 1 and 2).

特許文献1は、左右に離間したカメラから取り込んだ画像データから互いに対応する点や対応領域を検出して視差を求めると共に、視差に対応する辺及び横方向の位置に対応する辺が長くなるように定めされたブロックを複数配列した視差マップを用いて路面と立体物とを区別して判定することを提案している。   In Patent Document 1, parallax is obtained by detecting points and corresponding areas corresponding to each other from image data taken from cameras separated from each other on the left and right sides, and the side corresponding to the parallax and the side corresponding to the lateral position are long. It proposes distinguishing and determining a road surface and a three-dimensional object using a parallax map in which a plurality of blocks defined in the above are arranged.

特許文献2は、水平方向に離置した複数のカメラから取り込んだ画像を所定の大きさの領域に分割し、そして、エッジを含んだ領域を抽出して、この抽出した領域内のエッジの方向を求めると共に、エッジの方向の垂直及び斜め方向の領域に対して最も一致度の高い領域を検出して各領域毎の視差を求め、そして、視差と左右二つのカメラの位置関係から三角測量の原理に基づいて各領域内に存在する障害物までの距離を演算すると共に同じ距離であると算出された領域の塊を一つの障害物と判定することを提案している。   Patent Document 2 divides an image captured from a plurality of cameras separated in the horizontal direction into regions of a predetermined size, extracts a region including an edge, and the direction of the edge in the extracted region And the parallax for each area is obtained by detecting the area having the highest degree of coincidence with respect to the vertical and diagonal areas of the edge direction, and triangulation is obtained from the positional relationship between the parallax and the two left and right cameras. Based on the principle, it is proposed to calculate the distance to an obstacle existing in each area and to determine a block of areas calculated as the same distance as one obstacle.

特開2006−236104号公報JP 2006-236104 A 特開2000−207693号公報JP 2000-207693 A

引用文献1、2から分かるように、一方のカメラ(以下、「基準カメラ」という)から取り込んだ撮像データ(以下、「基準画像」又は「基準画像データ」という)から特徴点を抽出し、この特徴点に対応する対応点を他方のカメラ(以下、「参照カメラ」という)の撮像データ(以下、「参照画像」又は「参照画像データ」という)から探し出すことで特徴点と対応点との間の視差を求める手法が採用される。   As can be seen from the cited references 1 and 2, feature points are extracted from image data (hereinafter referred to as “reference image” or “reference image data”) captured from one camera (hereinafter referred to as “reference camera”). By searching for the corresponding point corresponding to the feature point from the image data (hereinafter referred to as “reference image” or “reference image data”) of the other camera (hereinafter referred to as “reference camera”), A method for obtaining the parallax is employed.

参照画像データから対応点を探索する従来の一般的な手法は、参照画像のY方向にスキャンし、このスキャンをX方向に上から下に向けて反復することにより行われる。   A conventional general method of searching for corresponding points from reference image data is performed by scanning the reference image in the Y direction and repeating this scan from the top to the bottom in the X direction.

しかしながら、参照画像から対応点を抽出するのに参照画像の実質的に全領域をスキャンすることになるため対応点の抽出及びこれに付随する視差を算出するのに時間を要するという問題がある。   However, in order to extract the corresponding points from the reference image, substantially the entire region of the reference image is scanned, so that there is a problem that it takes time to extract the corresponding points and calculate the parallax associated therewith.

本発明の目的は、基準画像の特徴点に対応する対応点を探索する処理を実行する負担を軽減すると共に対応点の探索処理時間を短縮することできる車両用運転支援装置を提供することにある。   An object of the present invention is to provide a vehicle driving support device that can reduce the burden of executing processing for searching for corresponding points corresponding to feature points of a reference image and can reduce the time for searching for corresponding points. .

上記の技術的課題は、本発明によれば、
少なくとも第1、第2の複数の撮像手段を備え、該撮像手段で撮像した画像から障害物の特徴点を探索すると共に、この特徴点に対応した対応点を探索して、特徴点と対応点の視差に基づいて障害物までの距離を算出する車両用運転支援装置において、
前記第1撮像手段が撮像した基準画像データを記憶する基準メモリと、
前記第2撮像手段が撮像した参照画像データを記憶する参照メモリと、
前記基準メモリに記憶されている基準画像データから特徴点を探索する領域であって基準画像の一部に制限された領域である特徴点探索領域から特徴点を探索する特徴点探索手段と、
前記参照メモリに記憶されている参照画像データから対応点を探索する対応点探索範囲が上記特徴点の基準画像の存在位置により決まる探索方位ごとに設定された探索範囲内において前記特徴点に対応する対応点を探索する対応点探索手段と、
前記特徴点探索手段によって探索された特徴点と、前記対応点探索手段によって探索された対応点とに基づく視差によって障害物までの距離を算出する距離算出手段とを有することを特徴とする車両用運転支援装置を提供することにより達成される。すなわち、対応点の探索範囲を障害物の存在する可能性のある所定の範囲内に限定し、その範囲内においてのみ対応点の探索を実行するので、対応点を探索する処理を実行する負担を軽減すると共に対応点の探索処理時間を短縮することできる。
According to the present invention, the above technical problem is
The image processing apparatus includes at least first and second imaging units, searches for feature points of an obstacle from an image captured by the imaging unit, and searches for corresponding points corresponding to the feature points. In the vehicle driving support device that calculates the distance to the obstacle based on the parallax of
A reference memory for storing reference image data imaged by the first imaging means;
A reference memory for storing reference image data captured by the second imaging means;
A feature point search means for searching a feature point from a feature point search region, which is a region for searching a feature point from reference image data stored in the reference memory and limited to a part of the reference image;
A corresponding point search range for searching for a corresponding point from the reference image data stored in the reference memory corresponds to the feature point within a search range set for each search direction determined by the position of the reference image of the feature point. Corresponding point search means for searching for corresponding points;
The vehicle has a distance calculation unit that calculates a distance to an obstacle by parallax based on the feature point searched by the feature point search unit and the corresponding point searched by the corresponding point search unit. This is achieved by providing a driving assistance device. That is, the search range for corresponding points is limited to a predetermined range where obstacles may exist, and the search for corresponding points is performed only within that range. It is possible to reduce the time for searching for corresponding points as well as reducing the time.

本発明の好ましい実施の形態では、
前記特徴点探索手段が、前記基準メモリに記憶されている基準画像データから特徴点を探索する特徴点探索領域が複数の区分に分割され、各区分に探索の順位が付与されて、第1順位から順に特徴点を探索する。これにより、対応点だけでなく、特徴点を探索する処理を実行する負担を軽減すると共に特徴点の探索処理時間を短縮することできる。
In a preferred embodiment of the present invention,
The feature point search means for searching for feature points from the reference image data stored in the reference memory is divided into a plurality of sections, and each section is assigned a search rank, and the first rank Search for feature points in order. As a result, not only the corresponding points but also the burden of executing the process of searching for feature points can be reduced, and the feature point search processing time can be reduced.

また、本発明の好ましい実施の形態では、
自車両の走行環境を検出する走行環境検出手段と、
該走行環境検出手段が検出した走行環境に応じて、前記特徴点検索領域の大きさを設定する探索領域設定手段と、を更に有する。これによれば、走行環境に適合した大きさの探索領域の下で特徴点を探索することができる。
In a preferred embodiment of the present invention,
Driving environment detection means for detecting the driving environment of the host vehicle;
Search area setting means for setting the size of the feature point search area according to the driving environment detected by the driving environment detection means. According to this, it is possible to search for feature points under a search area having a size suitable for the driving environment.

また、本発明の好ましい実施の形態では、
前記走行環境検出手段が検出した走行環境に応じて、前記特徴点検索領域の区分数を設定する区分数設定手段を更に有する。これによれば、例えば込み入った市街地では区分数を多くすることで特徴点の検出精度を向上させることができる。
In a preferred embodiment of the present invention,
According to the driving environment detected by the driving environment detecting means, the information processing apparatus further comprises a section number setting means for setting the number of sections of the feature point search area. According to this, for example, in a complicated urban area, the detection accuracy of feature points can be improved by increasing the number of sections.

また、本発明の好ましい実施の形態では、
前記対応点検索領域が、上記特徴点探索領域の区分に対応して設定され、上記対応点の探索範囲が、上記区分ごとに設定される。このように、対応点の探索範囲を区分ごとに設定することで、探索方位が異なり、障害物までの距離が異なる各区分ごとに、適正な探索範囲を各区分ごとに設定し、対応点の検出処理負担軽減と精度を向上させることができる。
In a preferred embodiment of the present invention,
The corresponding point search area is set corresponding to the section of the feature point search area, and the search range of the corresponding point is set for each of the sections. In this way, by setting the search range of corresponding points for each category, an appropriate search range is set for each category with different search directions and different distances to obstacles. The detection processing burden can be reduced and the accuracy can be improved.

実施例が適用された車両の平面図である。1 is a plan view of a vehicle to which an embodiment is applied. 実施例の運転支援装置の全体系統をブロック図的に示す図である。It is a figure showing the whole system of the driving support device of an example in a block diagram. 2台のカメラを使って視差により障害物までの距離を三角測量の原理に従って求める方法を説明するための図である。It is a figure for demonstrating the method of calculating | requiring the distance to an obstruction by parallax according to the principle of triangulation using two cameras. 郊外走行時に採用される特徴点探索領域マップ及び区分を説明するための図である。It is a figure for demonstrating the feature point search area | region map and division employ | adopted at the time of a suburb drive. 郊外走行時に採用される対応点探索範囲マップ及び区分を説明するための図である。It is a figure for demonstrating the corresponding point search range map and division employ | adopted at the time of a suburb drive. 市街地走行時に採用される特徴点探索領域マップ及び区分を説明するための図である。It is a figure for demonstrating the feature point search area | region map and division employ | adopted at the time of driving | running | working in an urban area. 市街地走行時に採用される対応点探索範囲マップ及び区分を説明するための図である。It is a figure for demonstrating the corresponding point search range map and division employ | adopted at the time of urban area driving | running | working. 特徴点の抽出及びこれに対応した対応点の抽出に続いて視差により障害物までの距離によって衝突危険度を判定して、衝突の危険があるときに警報を発する制御の具体例を説明するためのフローチャートである。In order to describe a specific example of control for issuing a warning when there is a danger of collision by determining the collision risk based on the distance to the obstacle by parallax following the extraction of the feature points and the corresponding points corresponding thereto. It is a flowchart of.

以下に、添付の図面に基づいて本発明の好ましい実施例を説明する。図1において、車両としての自動車VCは、左右の前輪1Fと、左右の後輪1Rとを有し、この車両VCの車室には、フロントウィンドウガラスを通じて前方空間を撮像する第1、第2の左右の撮像手段としての第1、第2のCCDカメラ2、4を有し、この第1、第2のカメラ2、4は、水平方向に離間して(例えばルームミラーを挟んでその左右に)配置されている。なお、第1、第2の第1、第2撮像手段は、CCDカメラに限定されるものではなく、例えばCMOSカメラ等の画像センサであればよい。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In FIG. 1, an automobile VC as a vehicle has left and right front wheels 1F and left and right rear wheels 1R. The vehicle VC has first and second images of the front space through the front window glass. First and second CCD cameras 2 and 4 as left and right imaging means, and the first and second cameras 2 and 4 are separated in the horizontal direction (for example, sandwiching a room mirror with the left and right sides thereof). Is arranged). The first and second first and second imaging means are not limited to CCD cameras, and may be image sensors such as CMOS cameras, for example.

車両VCにはナビゲーションシステム8が配設され、このナビゲーションシステム8は、周知のように、ドライバに地図情報を視覚的に提供する。また、フロントウィンドウガラスには、運転席12の前方の部分にウィンドウシールドディスプレイシステム10が生成した運転支援情報がプロジェクタによって表示され、この運転支援情報には、障害物と衝突の危険性を表示する警報表示が含まれる。また、車両VCにはGPS受信システム14が搭載されている。   A navigation system 8 is disposed in the vehicle VC, and the navigation system 8 visually provides map information to the driver, as is well known. Further, on the front window glass, driving support information generated by the window shield display system 10 is displayed by a projector in the front part of the driver's seat 12, and the driving support information displays the obstacle and the risk of collision. An alarm display is included. The vehicle VC is equipped with a GPS reception system 14.

図2は、運転支援装置の一部を構成するマイクロコンピュータを利用して構成されたコントローラU(制御ユニット)を含む制御系統の全体をブロック図的を示す。コントローラUには、右カメラ2、左カメラ4から撮像データが入力される。ここに、右カメラ2は基準カメラを構成し、左カメラ4が参照カメラを構成しているが、右カメラ2を参照カメラとして使用し、左カメラ4を基準カメラとして使用してもよい。前方に向けて配設された左右のカメラ2、4は、その光軸が共に平行となるように配設されている。   FIG. 2 is a block diagram showing the entire control system including a controller U (control unit) configured by using a microcomputer constituting a part of the driving support apparatus. Imaging data is input to the controller U from the right camera 2 and the left camera 4. Here, the right camera 2 constitutes a reference camera, and the left camera 4 constitutes a reference camera. However, the right camera 2 may be used as a reference camera and the left camera 4 may be used as a reference camera. The left and right cameras 2, 4 arranged toward the front are arranged so that their optical axes are parallel to each other.

コントローラUには、GPS受信システム14が受け取ったGPS信号が入力され、また、ナビゲーションシステム8からの地図データが入力される。   A GPS signal received by the GPS receiving system 14 is input to the controller U, and map data from the navigation system 8 is input.

コントローラUは、各カメラ2、4から取り込んだ画像信号を記憶する第1、第2のメモリ20、22つまり、右カメラ(基準カメラ)2から取り込んだ基準画像信号を記憶する基準メモリ20と、左カメラ(参照カメラ)4から取り込んだ参照画像信号を記憶する参照メモリ22とを有している。   The controller U stores first and second memories 20 and 22 that store image signals captured from the cameras 2 and 4, that is, a reference memory 20 that stores reference image signals captured from the right camera (reference camera) 2; And a reference memory 22 for storing a reference image signal captured from the left camera (reference camera) 4.

コントローラUは、また、GPS受信システム14及びナビゲーションシステム8からの信号を受け取って車両VCの走行環境を検出する走行環境検出部24を有し、この走行環境検出部24で検出した走行環境データに基づいて作成した特徴点探索領域マップ及び対応点探索範囲マップ(後に説明する市街地走行用と郊外走行用の2種類)が第3、第4メモリ26、28に記憶される。   The controller U also has a travel environment detection unit 24 that receives signals from the GPS reception system 14 and the navigation system 8 and detects the travel environment of the vehicle VC. The travel environment data detected by the travel environment detection unit 24 is included in the travel environment data. The feature point search area map and the corresponding point search range map (two types for urban driving and suburban driving, which will be described later) created based on them are stored in the third and fourth memories 26 and 28.

前述した基準メモリ20内の基準画像データに基づいて特徴点の探索が行われ、また、参照メモリ22内の参照画像データに基づいて対応点を探索が行われる。そして、距離算出及び危険度判定部30では、抽出した特徴点及び対応点に基づいて対象物(障害物)までの距離が算出されて衝突の危険度が判定され、衝突の危険度が高いときには、ウィンドウシールドディスプレイシステム10のプロジェクタによってフロントウィンドウガラスに警報情報が表示される。   A feature point search is performed based on the above-described standard image data in the standard memory 20, and a corresponding point is searched based on the reference image data in the reference memory 22. Then, the distance calculation and risk determination unit 30 calculates the distance to the object (obstacle) based on the extracted feature points and corresponding points to determine the risk of collision, and when the risk of collision is high The alarm information is displayed on the windshield by the projector of the window shield display system 10.

左右のカメラ2、4によって車両VCの前方に位置する障害物Oまでの距離を検出する基本原理を図3に基づいて説明すると、2台の左右に離置したカメラ2、4の間の距離L0は既知である。基準カメラ2が撮像した画像データから輝度変化により検出した障害物の特徴点と基準カメラ2の光軸との間の距離がD1(距離D1に対応する基準メモリ20の画素数)であったとする。この特徴点に対応する対応点を参照カメラ4が撮像した画像データから抽出したときに、この対応点と参照カメラ4の光軸との間の距離がD2(距離D2に対応する参照メモリ22の画素数)であったとすると、視差は距離D1と距離D2とを合算した値となり(視差=D1+D2)、従来と同様に、この視差の値(視差量)を使って三角測量の原理により障害物Oと自車両VCとの間の距離Lを知ることができる。 The basic principle of detecting the distance to the obstacle O located in front of the vehicle VC by the left and right cameras 2 and 4 will be described based on FIG. 3. The distance between the two cameras 2 and 4 that are separated from each other on the left and right L 0 is known. Assume that the distance between the feature point of the obstacle detected by the luminance change from the image data captured by the reference camera 2 and the optical axis of the reference camera 2 is D1 (the number of pixels of the reference memory 20 corresponding to the distance D1). . When a corresponding point corresponding to the feature point is extracted from image data captured by the reference camera 4, the distance between the corresponding point and the optical axis of the reference camera 4 is D2 (in the reference memory 22 corresponding to the distance D2). (The number of pixels), the parallax is a value obtained by adding the distance D1 and the distance D2 (parallax = D1 + D2). The distance L between O and the host vehicle VC can be known.

図4は基準画像中で特徴点を探索するために用いられる郊外走行用の探索領域を説明するための図である。右の基準カメラ2が撮像した基準画像40(これに該当する基準メモリ20のメモリ領域)を示す。郊外での走行では、画像40中、自車両VCの走行車線及びその近傍領域に限定した郊外用特徴点探索領域42が設定され、この郊外用特徴点探索領域42は上下及び左右に合計八つの区分42-1〜8に分割されている。   FIG. 4 is a diagram for explaining a search area for suburban travel used for searching for feature points in the reference image. The reference image 40 (the memory area of the reference memory 20 corresponding to this) captured by the right reference camera 2 is shown. In driving in the suburbs, in the image 40, a suburban feature point search area 42 limited to the travel lane of the host vehicle VC and its neighboring area is set, and the suburban feature point search area 42 has a total of eight up and down and left and right. It is divided into sections 42-1-8.

図5(a)は、左の参照カメラ4が撮像した画像中、上記郊外用特徴点探索領域42に対応した対応点探索領域44を示し(これに該当する参照メモリ22のメモリ領域)、この対応点探索領域44は、上記郊外用特徴点探索領域42の八つの区分42-1〜8に対応して八つの区分44-1〜8に分割されている。   FIG. 5A shows a corresponding point search area 44 corresponding to the suburban feature point search area 42 in the image captured by the left reference camera 4 (memory area of the reference memory 22 corresponding thereto). The corresponding point search area 44 is divided into eight sections 44-1 to 8-8 corresponding to the eight sections 42-1 to 8-8 of the suburban feature point search area.

対応点探索領域44に関し、探索方位ごとに区分され、各区分ごとに設定された探索範囲内において対応点を探索することとし、これら探索範囲は、探索を必要とする障害物が存在することが予測される距離範囲に応じた視差データとして記憶しておき、これら視差データにて設定された範囲内においてのみ対応点を探索する。すなわち、特徴点が抽出された場合、図3の左画像の破線で示すように、左画像22の特徴点に対応する位置から、予め記憶された視差データにて設定された探索範囲内のみを探索して対応点を抽出する。   The corresponding point search area 44 is divided for each search direction, and the corresponding points are searched for in the search range set for each division. In these search ranges, there may be an obstacle that needs to be searched. It is stored as parallax data corresponding to the predicted distance range, and corresponding points are searched only within the range set by these parallax data. That is, when a feature point is extracted, as shown by a broken line in the left image in FIG. 3, only a search range set by pre-stored parallax data from a position corresponding to the feature point of the left image 22 is used. Search and extract corresponding points.

例えば、図5(a)に対応する車両状態の平面視を示す図5(b)や側面視を示す図5(c)に示されるように、探索方位に応じて、探索すべき障害物までの距離は異なる。すなわち、図5(b)に示すように自車進行方向の車線内を探索する区分44−5、44−6においては、障害物探索は、比較的長い距離範囲まで探索する必要あるため、視差データは、10pix〜50pixとして設定され、図3の破線で示すように、対応点の探索は、特徴点から10pix離間した位置から開始し、50pix離間したところで終了する。一方、自車進行方向の車線外を探索する区分44−7、44−8においては、障害物探索は、自車進行方向に対しては、比較的短い距離範囲の探索とすることが出来るため、視差データは、20pix〜50pixとして設定され、図3の破線で示すように、対応点の探索は、特徴点から20pix離間した位置から開始し、50pix離間したところで終了する。   For example, as shown in FIG. 5 (b) showing a plan view of the vehicle state corresponding to FIG. 5 (a) and FIG. 5 (c) showing a side view, up to an obstacle to be searched according to the search direction. The distance is different. That is, as shown in FIG. 5B, in the sections 44-5 and 44-6 for searching in the lane in the traveling direction of the own vehicle, the obstacle search needs to search up to a relatively long distance range. The data is set as 10 pix to 50 pix, and as shown by the broken line in FIG. 3, the search for the corresponding points starts from a position separated by 10 pix from the feature point and ends when separated by 50 pix. On the other hand, in the sections 44-7 and 44-8 for searching outside the lane in the traveling direction of the own vehicle, the obstacle search can be performed in a relatively short distance range with respect to the traveling direction of the own vehicle. The disparity data is set as 20 pix to 50 pix, and as shown by the broken line in FIG. 3, the search for the corresponding point starts from a position separated by 20 pix from the feature point and ends when separated by 50 pix.

同様に、図5(c)に示すように自車進行方向の下方向を探索する区分44−1、44−2においては、障害物探索は、路面にいたるまでの比較的短い距離範囲を探索すれば良いため、視差データは、40pix〜50pixとして設定され、図3の破線で示すように、対応点の探索は、特徴点から40pix離間した位置から開始し、50pix離間したところで終了する。   Similarly, as shown in FIG. 5C, in the sections 44-1 and 44-2 that search downward in the traveling direction of the own vehicle, the obstacle search searches for a relatively short distance range to the road surface. Therefore, the parallax data is set as 40 pix to 50 pix, and as shown by a broken line in FIG. 3, the search for the corresponding point starts from a position separated by 40 pix from the feature point and ends when separated by 50 pix.

図6は市街地を走行中に用いられる基準画像中で特徴点を探索するために用いられる探索領域を説明するための図である。この市街地での走行では、撮像画像40中、横方向及び遠方に広がりを有する市街地用特徴点探索領域46が設定され、この市街地用特徴点探索領域46は上下及び左右に合計32の区分46-1〜46-32に分割されている。   FIG. 6 is a diagram for explaining a search area used for searching for a feature point in a reference image used while traveling in an urban area. In traveling in this urban area, an urban area feature point search area 46 is set in the captured image 40 so as to spread laterally and far away. The urban area feature point search area 46 is divided into a total of 32 sections 46- 1 to 46-32.

図7は、左の参照カメラ4が撮像した画像中、上記市街地用特徴点探索領域46に対応した対応点探索範囲48を示し(これに該当する参照メモリ22のメモリ領域)、この対応点探索範囲48は、上記市街地用特徴点探索領域46の32の区分46-1〜46-32に対応して32の区分48-1〜48-32に分割されている。   FIG. 7 shows a corresponding point search range 48 corresponding to the urban feature point search area 46 in the image captured by the left reference camera 4 (the corresponding memory area of the reference memory 22), and this corresponding point search. The range 48 is divided into 32 sections 48-1 to 48-32 corresponding to the 32 sections 46-1 to 46-32 of the urban feature point search area 46.

上記の郊外走行時の対応点探索と同様に、対応点探索範囲48に関し、探索方位ごとに区分され、各区分ごとに設定された探索範囲内において対応点を探索することとし、これら探索範囲は、探索を必要とする障害物が存在することが予測される距離範囲に応じた視差データとして記憶しておき、これら視差データにて設定された範囲内においてのみ対応点を探索する。すなわち、特徴点が抽出された場合、図3の左画像の破線で示すように、左画像22の特徴点に対応する位置から、予め記憶された視差データにて設定された探索範囲内のみを探索して対応点を抽出する。   Similar to the corresponding point search at the time of traveling in the suburbs, the corresponding point search range 48 is divided for each search direction, and the corresponding points are searched within the search range set for each division. Then, it is stored as parallax data corresponding to a distance range in which an obstacle requiring search is predicted, and corresponding points are searched only within the range set by these parallax data. That is, when a feature point is extracted, as shown by a broken line in the left image in FIG. 3, only a search range set by pre-stored parallax data from a position corresponding to the feature point of the left image 22 is used. Search and extract corresponding points.

例えば、図7のMAPデータとして示されるように、探索方位に応じて、探索すべき障害物までの距離は異なることから、自車進行方向の車線内を探索する区分48−22、48−23においては、障害物探索は、比較的長い距離範囲まで探索する必要あるため、視差データは、15pix〜50pixとして設定され、図3の破線で示すように、対応点の探索は、特徴点から15pix離間した位置から開始し、50pix離間したところで終了する。一方、自車進行方向の車線外を探索する区分48−19、48−20においては、障害物探索は、自車進行方向に対しては、比較的短い距離範囲の探索とすることが出来るため、視差データは、20pix〜50pixとして設定され、図3の破線で示すように、対応点の探索は、特徴点から20pix離間した位置から開始し、50pix離間したところで終了する。   For example, as shown as MAP data in FIG. 7, since the distance to the obstacle to be searched differs depending on the search direction, the sections 48-22 and 48-23 for searching the lane in the traveling direction of the own vehicle. In FIG. 3, since the obstacle search needs to search up to a relatively long distance range, the disparity data is set as 15 pix to 50 pix, and as shown by the broken line in FIG. 3, the search for the corresponding point is 15 pix from the feature point. It starts from a separated position and ends when it is separated by 50 pix. On the other hand, in the sections 48-19 and 48-20 for searching outside the lane in the traveling direction of the own vehicle, the obstacle search can be performed in a relatively short distance range with respect to the traveling direction of the own vehicle. The disparity data is set as 20 pix to 50 pix, and as shown by the broken line in FIG. 3, the search for the corresponding point starts from a position separated by 20 pix from the feature point and ends when separated by 50 pix.

同様に、自車進行方向の下方向を探索する区分48−6、48−7においては、障害物探索は、路面にいたるまでの比較的短い距離範囲を探索すれば良いため、視差データは、40pix〜50pixとして設定され、図3の破線で示すように、対応点の探索は、特徴点から40pix離間した位置から開始し、50pix離間したところで終了する。なお、その他の区分についても同様である。   Similarly, in the sections 48-6 and 48-7 for searching downward in the traveling direction of the vehicle, the obstacle search may be performed by searching for a relatively short distance range to the road surface. As shown by the broken lines in FIG. 3, the search for corresponding points starts from a position separated by 40 pix from the feature point and ends when separated by 50 pix. The same applies to other categories.

実施例に含まれる対応点探索方法の具体例を図8のフローチャートに基づいて説明する。先ず、ステップS1で、左右のカメラ2、4やナビゲーションシステム8等からの信号の入力処理が行われ、次のステップS2において、ナビゲーションシステム8からの情報に基づいて、現在の走行環境つまり市街地を走行中か郊外を走行中であるかの推定が行われ、ここで推定した走行環境に応じた特徴点探索領域が設定される(ステップS3)。すなわち、郊外走行中であれば図4の探索領域42が設定され、市街地走行中であれば図6の探索領域46が設定される。このステップS3は探索領域設定手段及び区分数設定手段を構成する。   A specific example of the corresponding point search method included in the embodiment will be described based on the flowchart of FIG. First, in step S1, input processing of signals from the left and right cameras 2, 4 and the navigation system 8 is performed, and in the next step S2, based on information from the navigation system 8, the current driving environment, that is, the urban area is determined. Whether the vehicle is traveling or traveling in the suburbs is estimated, and a feature point search area corresponding to the estimated traveling environment is set (step S3). That is, the search area 42 in FIG. 4 is set when traveling in the suburbs, and the search area 46 in FIG. 6 is set when traveling in an urban area. This step S3 constitutes a search area setting means and a section number setting means.

次のステップS4では、優先順位に従って領域内の特徴点の探索を実行される。このステップS4について郊外走行中を例に説明すると、特徴点探索領域42の各区分42−1〜42−8には探索順位が属性として付与されている。優先順位としては衝突危険度の大きい領域、例えば車両前方且つ隣接した空間の撮像画像を記憶した二つの下側中央区分42−1、42−2に第1順位が設定され、次に衝突危険度が大きい領域である下側中央の左右両側の区分42−3、42−4に第2順位が設定され、次に衝突危険度が大きい上側中央の区分42−5、42−6に第3順位が設定され、最も衝突危険度が小さいと考えられる上側中央の左右両側の区分42−7、42−8に第4順位が設定される(図4)。   In the next step S4, the search for feature points in the region is executed according to the priority order. The step S4 will be described by taking the case of traveling in the suburbs as an example. Each of the sections 42-1 to 42-8 of the feature point search area 42 is given a search rank as an attribute. As a priority order, the first order is set for two lower center sections 42-1 and 42-2 that store captured images of an area having a high collision risk, for example, a space in front of and adjacent to the vehicle. The second rank is set for the left and right sections 42-3 and 42-4 in the lower center, which is a region with a large area, and the third rank is placed in the upper center sections 42-5 and 42-6 with the next highest risk of collision. Is set, and the fourth rank is set in the sections 42-7 and 42-8 on the left and right sides of the upper center, which is considered to have the lowest collision risk (FIG. 4).

この例によれば、ステップS4では、上記の優先順位に従って先ず第1順位の二つの下側中央区分42−1、42−2において特徴点の探索が実行される。そして、下側中央区分42−1、42−2の中に特徴点が存在しているときには、YESであるとしてステップS6に進んで、郊外用対応点探索範囲44のうち上記特徴点探索領域42の第1順位の二つの区分42−1、42−2に対応する区分である二つの区分44−1、44−2が探索範囲として設定され、そして、この二つの区分44−1、44−2で対応点の探索が実行される(ステップS7)。このステップS7が対応点探索手段を構成する。もし対応点が抽出できないときには、ステップS8でNOであるとしてステップS9に進み、探索優先順位が最下位であるか否かの判定が行われる。   According to this example, in step S4, the search for feature points is first executed in the two lower central sections 42-1 and 42-2 of the first rank according to the above-mentioned priority order. When the feature point exists in the lower central sections 42-1 and 42-2, the process proceeds to step S 6 as YES, and the feature point search area 42 in the suburban corresponding point search range 44. The two sections 44-1 and 44-2 that are the sections corresponding to the two sections 42-1 and 42-2 of the first rank are set as search ranges, and the two sections 44-1 and 44- The corresponding point search is executed in step 2 (step S7). This step S7 constitutes corresponding point search means. If the corresponding point cannot be extracted, it is determined as NO in step S8, and the process proceeds to step S9 to determine whether or not the search priority is lowest.

いまは第1優先順位を実行したのであるから、NOということでステップS10に進んで次の優先順位である第2順位について特徴点及びこれに対応した対応点の探索が実行される。すなわち、ステップS10では、特徴点探索領域42の第2順位の区分42−3、42−4について特徴点の探索が実行され、また、ステップS6では、この第2順位の特徴点探索区分42−3、42−4に対応した郊外用対応点探索区分44−3、44−4について対応点の探索が実行される。この特徴点及びこれに対応した対応点の探索は、特徴点が存在していないときを除いて、最後の順位つまり最下位の順位まで実行される。   Since the first priority is now executed, the process proceeds to step S10 as NO, and a search for feature points and corresponding points corresponding to the second priority, which is the next priority, is executed. That is, in step S10, the feature point search is executed for the second rank sections 42-3 and 42-4 of the feature point search area 42, and in step S6, the second rank feature point search section 42-. The corresponding point search is executed for the suburban corresponding point search sections 44-3 and 44-4 corresponding to the items 3 and 42-4. The search for this feature point and the corresponding point corresponding to this feature point is executed up to the last rank, that is, the lowest rank, except when the feature point does not exist.

特徴点と、これに対応する対応点が存在しているときには、ステップS11に進んで視差に基づいて対象物(障害物)までの距離L(図3)の算出が行われる。このステップS11が距離算出手段を構成する。そして、算出した距離Lが所定のしきい値つまり衝突危険性の高い距離よりも小さいときにはステップS13に進んでウィンドウシールドディスプレイシステム10によって警報表示が行われる。   When there is a feature point and a corresponding point corresponding thereto, the process proceeds to step S11, and the distance L (FIG. 3) to the object (obstacle) is calculated based on the parallax. This step S11 constitutes a distance calculation means. When the calculated distance L is smaller than a predetermined threshold, that is, a distance with high collision risk, the process proceeds to step S13, and an alarm is displayed by the window shield display system 10.

上述したように、基準画像を記憶した基準メモリ20及び参照画像を記憶した参照メモリ22の探索において探索エリアを制限して特徴点及びこれに対応する対応点の探索を行うようにしたことから特徴点及び対応点の探索処理を実行する負担を軽減することができ、これにより探索処理時間を短縮することできる。また、制限した探索エリアに順位を付与して、この順位に従って特徴点及び対応点の探索処理を実行することから、探索目的(上記の例で言えば衝突危険度の警報)に合致した順位を付与することで探索目的に合致した特徴点及び対応点を迅速に抽出することができる。また、市街地や郊外というように走行環境に応じて基準画像中の特徴点探索領域42、46の大きさを変えることで、走行環境に対応した合理的な特徴点の抽出処理を行うことができる。また、探索方位により異なる距離範囲に存在することが予測される障害物を検出するができるように対応点探索範囲44、48の各区分毎に異なる視差に相当する画素数を設定することで対応点の探索処理負荷を軽減するとともに精度を上げることができる。   As described above, a feature point and a corresponding point corresponding thereto are searched by limiting the search area in the search of the reference memory 20 storing the reference image and the reference memory 22 storing the reference image. The burden of executing the point and corresponding point search processing can be reduced, and the search processing time can be shortened. In addition, since ranks are assigned to limited search areas, and feature point and corresponding point search processing is executed in accordance with the ranks, ranks that match the search purpose (in the above example, a collision risk alarm) are set. By assigning, it is possible to quickly extract feature points and corresponding points that match the search purpose. In addition, by changing the size of the feature point search areas 42 and 46 in the reference image according to the travel environment such as an urban area or a suburb, it is possible to perform a rational feature point extraction process corresponding to the travel environment. . Also, it is possible to set the number of pixels corresponding to different parallax for each section of the corresponding point search ranges 44 and 48 so that obstacles predicted to exist in different distance ranges depending on the search direction can be detected. It is possible to reduce the point search processing load and increase the accuracy.

なお、上記の具体例では、特徴点探索領域42、46を分割した複数の区分に関して優先順位を付与して、優先順位に従って該当する区分内で特徴点を探索するようにしたが、特徴点の探索に関しは特徴点探索領域42、46の全領域を探索し、発見した特徴点に対応する対応点の探索に関してだけ、上記の具体例と同様に、優先順位の順に対応点を探索するようにしてもよい。   In the above specific example, priority is given to a plurality of sections obtained by dividing the feature point search areas 42 and 46, and feature points are searched for in the corresponding sections according to the priority order. With respect to the search, all the feature point search areas 42 and 46 are searched, and corresponding points are searched in the order of priorities only for searching for corresponding points corresponding to the found feature points, as in the above specific example. May be.

VC 自動車(自車両)
2 第1CCDカメラ(基準カメラ)
4 第2CCDカメラ(参照カメラ)
8 ナビゲーションシステム
10 ウィンドウシールドディスプレイシステム
20 基準メモリ
22 参照メモリ
40 撮像画像
42 郊外用特徴点探索領域
44 対応点探索範囲
46 市街地用特徴点探索領域
48 対応点探索範囲
VC car (own vehicle)
2 First CCD camera (reference camera)
4 Second CCD camera (reference camera)
8 Navigation System 10 Window Shield Display System 20 Base Memory 22 Reference Memory 40 Captured Image 42 Suburban Feature Point Search Area 44 Corresponding Point Search Range 46 Urban Feature Point Search Area 48 Corresponding Point Search Range

Claims (6)

少なくとも第1、第2の複数の撮像手段を備え、該撮像手段で撮像した画像から障害物の特徴点を探索すると共に、この特徴点に対応した対応点を探索して、特徴点と対応点の視差に基づいて障害物までの距離を算出する車両用運転支援装置において、
前記第1撮像手段が撮像した基準画像データを記憶する基準メモリと、
前記第2撮像手段が撮像した参照画像データを記憶する参照メモリと、
前記基準メモリに記憶されている基準画像データから特徴点を探索する領域であって基準画像の一部に制限された領域である特徴点探索領域から特徴点を探索する特徴点探索手段と、
前記参照メモリに記憶されている参照画像データから対応点を探索する対応点探索範囲が上記特徴点の基準画像の存在位置により決まる探索方位ごとに設定された探索範囲内において前記特徴点に対応する対応点を探索する対応点探索手段と、
前記特徴点探索手段によって探索された特徴点と、前記対応点探索手段によって探索された対応点とに基づく視差によって障害物までの距離を算出する距離算出手段とを有することを特徴とする車両用運転支援装置。
The image processing apparatus includes at least first and second imaging units, searches for feature points of an obstacle from an image captured by the imaging unit, and searches for corresponding points corresponding to the feature points. In the vehicle driving support device that calculates the distance to the obstacle based on the parallax of
A reference memory for storing reference image data imaged by the first imaging means;
A reference memory for storing reference image data captured by the second imaging means;
A feature point search means for searching a feature point from a feature point search region, which is a region for searching a feature point from reference image data stored in the reference memory and limited to a part of the reference image;
A corresponding point search range for searching for a corresponding point from the reference image data stored in the reference memory corresponds to the feature point within a search range set for each search direction determined by the position of the reference image of the feature point. Corresponding point search means for searching for corresponding points;
The vehicle has a distance calculation unit that calculates a distance to an obstacle by parallax based on the feature point searched by the feature point search unit and the corresponding point searched by the corresponding point search unit. Driving assistance device.
前記特徴点探索手段が、前記基準メモリに記憶されている基準画像データから特徴点を探索する特徴点探索領域が複数の区分に分割され、各区分に探索の順位が付与されて、第1順位から順に特徴点を探索する、請求項1に記載の車両用運転支援装置。   The feature point search means for searching for feature points from the reference image data stored in the reference memory is divided into a plurality of sections, and each section is assigned a search rank, and the first rank The vehicle driving support device according to claim 1, wherein the feature points are searched in order. 自車両の走行環境を検出する走行環境検出手段と、
該走行環境検出手段が検出した走行環境に応じて、前記特徴点検索領域の大きさを設定する探索領域設定手段と、を更に有する、請求項2に記載の車両用運転支援装置。
Driving environment detection means for detecting the driving environment of the host vehicle;
The vehicle driving support apparatus according to claim 2, further comprising: search area setting means for setting a size of the feature point search area in accordance with the driving environment detected by the driving environment detection means.
前記走行環境検出手段が検出した走行環境に応じて、前記特徴点検索領域の区分数を設定する区分数設定手段を更に有する、請求項3に記載の車両用運転支援装置。   The vehicle driving support device according to claim 3, further comprising: a section number setting unit configured to set the number of sections of the feature point search area according to the driving environment detected by the driving environment detection unit. 前記対応点検索領域が、上記特徴点探索領域の区分に対応して設定され、上記対応点の探索範囲が上記区分ごとに設定される、請求項4に記載の車両用運転支援装置。   The vehicle driving support device according to claim 4, wherein the corresponding point search area is set corresponding to a section of the feature point search area, and a search range of the corresponding point is set for each of the sections. 前記優先順位が衝突危険度の大きい順に決定されている、請求項4又は5に記載の車両用運転支援装置。   The vehicle driving support device according to claim 4 or 5, wherein the priority order is determined in descending order of collision risk.
JP2009034577A 2009-02-17 2009-02-17 Vehicle driving support device Expired - Fee Related JP5392473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009034577A JP5392473B2 (en) 2009-02-17 2009-02-17 Vehicle driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009034577A JP5392473B2 (en) 2009-02-17 2009-02-17 Vehicle driving support device

Publications (2)

Publication Number Publication Date
JP2010191637A true JP2010191637A (en) 2010-09-02
JP5392473B2 JP5392473B2 (en) 2014-01-22

Family

ID=42817627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009034577A Expired - Fee Related JP5392473B2 (en) 2009-02-17 2009-02-17 Vehicle driving support device

Country Status (1)

Country Link
JP (1) JP5392473B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084259A (en) * 2015-10-30 2017-05-18 株式会社日本自動車部品総合研究所 Corresponding point search method and distance measuring device
JP2020051943A (en) * 2018-09-27 2020-04-02 株式会社Subaru Stereo camera device for vehicles
JPWO2018225710A1 (en) * 2017-06-09 2020-04-16 株式会社小糸製作所 Vehicle lamp, its control device, and control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000136905A (en) * 1998-11-02 2000-05-16 Nissan Motor Co Ltd Apparatus for measuring position of end of object, and judgment apparatus for passage of moving body
JP2008174028A (en) * 2007-01-16 2008-07-31 Sumitomo Electric Ind Ltd Target detection system and method
JP2008286648A (en) * 2007-05-17 2008-11-27 Sumitomo Electric Ind Ltd Distance measuring device, distance measuring system, and distance measuring method
JP2008298532A (en) * 2007-05-30 2008-12-11 Konica Minolta Holdings Inc Obstruction measurement method, device, and system
JP2009014444A (en) * 2007-07-03 2009-01-22 Konica Minolta Holdings Inc Range finder
JP2010185761A (en) * 2009-02-12 2010-08-26 Toyota Motor Corp Navigation system, road map display method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000136905A (en) * 1998-11-02 2000-05-16 Nissan Motor Co Ltd Apparatus for measuring position of end of object, and judgment apparatus for passage of moving body
JP2008174028A (en) * 2007-01-16 2008-07-31 Sumitomo Electric Ind Ltd Target detection system and method
JP2008286648A (en) * 2007-05-17 2008-11-27 Sumitomo Electric Ind Ltd Distance measuring device, distance measuring system, and distance measuring method
JP2008298532A (en) * 2007-05-30 2008-12-11 Konica Minolta Holdings Inc Obstruction measurement method, device, and system
JP2009014444A (en) * 2007-07-03 2009-01-22 Konica Minolta Holdings Inc Range finder
JP2010185761A (en) * 2009-02-12 2010-08-26 Toyota Motor Corp Navigation system, road map display method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084259A (en) * 2015-10-30 2017-05-18 株式会社日本自動車部品総合研究所 Corresponding point search method and distance measuring device
JPWO2018225710A1 (en) * 2017-06-09 2020-04-16 株式会社小糸製作所 Vehicle lamp, its control device, and control method
JP7193452B2 (en) 2017-06-09 2022-12-20 株式会社小糸製作所 VEHICLE LAMP AND CONTROL DEVICE AND CONTROL METHOD THEREOF
JP2020051943A (en) * 2018-09-27 2020-04-02 株式会社Subaru Stereo camera device for vehicles
JP7256623B2 (en) 2018-09-27 2023-04-12 株式会社Subaru Vehicle stereo camera device

Also Published As

Publication number Publication date
JP5392473B2 (en) 2014-01-22

Similar Documents

Publication Publication Date Title
US10896310B2 (en) Image processing device, image processing system, and image processing method
JP5127182B2 (en) Object detection device
US8395490B2 (en) Blind spot display apparatus
JP5798392B2 (en) Parking assistance device
US9659497B2 (en) Lane departure warning system and lane departure warning method
US9594966B2 (en) Obstacle detection device and obstacle detection method
JPH05265547A (en) On-vehicle outside monitoring device
US20140002655A1 (en) Lane departure warning system and lane departure warning method
JP2009037622A (en) Method and device for evaluating image
JP4901275B2 (en) Travel guidance obstacle detection device and vehicle control device
JPH06266828A (en) Outside monitoring device for vehicle
JP3562751B2 (en) Forward vehicle detection method and device
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP2011128756A (en) Object detection device
JP2009053818A (en) Image processor and method thereof
JP2008262333A (en) Road surface discrimination device and road surface discrimination method
KR102031635B1 (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
JP2010224918A (en) Environment recognition device
JP5073700B2 (en) Object detection device
JP5392473B2 (en) Vehicle driving support device
JP6591188B2 (en) Outside environment recognition device
JP2019053685A (en) Image processing device
JPH07294251A (en) Obstacle detector
JP6313063B2 (en) In-vehicle recognition device
JP2007286724A (en) Onboard information processing method, onboard information processing program, onboard information processor and onboard information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131001

R150 Certificate of patent or registration of utility model

Ref document number: 5392473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees