JP6126849B2 - Lane identification device and lane identification method - Google Patents

Lane identification device and lane identification method Download PDF

Info

Publication number
JP6126849B2
JP6126849B2 JP2013011898A JP2013011898A JP6126849B2 JP 6126849 B2 JP6126849 B2 JP 6126849B2 JP 2013011898 A JP2013011898 A JP 2013011898A JP 2013011898 A JP2013011898 A JP 2013011898A JP 6126849 B2 JP6126849 B2 JP 6126849B2
Authority
JP
Japan
Prior art keywords
image
lane
unit
complexity
straight line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013011898A
Other languages
Japanese (ja)
Other versions
JP2014142866A (en
Inventor
祐次郎 谷
祐次郎 谷
水野 雄介
雄介 水野
雄基 原口
雄基 原口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2013011898A priority Critical patent/JP6126849B2/en
Publication of JP2014142866A publication Critical patent/JP2014142866A/en
Application granted granted Critical
Publication of JP6126849B2 publication Critical patent/JP6126849B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車載カメラで撮像した画像に基づいて道路の車線を識別する技術に関する。   The present invention relates to a technique for identifying a road lane based on an image captured by an in-vehicle camera.

従来より、車載カメラで撮像した画像に基づいて道路の車線を識別する技術が開発されており、例えば、特許文献1には、車載カメラで路面を撮像して得られた画像を俯瞰画像に変換し、該俯瞰画像の輝度を車両進行方向に平行に積分して進行方向に垂直な方向に対する輝度プロファイルを求め、該輝度プロファイルにフィルタ処理を施すことによって白線の位置を検出する技術が開示されている。   Conventionally, a technique for identifying a road lane based on an image captured by an in-vehicle camera has been developed. For example, in Patent Document 1, an image obtained by capturing an image of a road surface by an in-vehicle camera is converted into an overhead image. Then, there is disclosed a technique for detecting the position of a white line by integrating the luminance of the overhead view image in parallel with the vehicle traveling direction to obtain a luminance profile with respect to the direction perpendicular to the traveling direction and filtering the luminance profile. Yes.

特許第4927908号公報Japanese Patent No. 4927908

しかし、画像を俯瞰画像に変換するには大きなハードウエア構成が必要になり、また、輝度プロファイルにより白線を検出する場合、車両や道路標示(ゼブラゾーンなど)が道路上にあると、それらが外乱となり白線の検出精度が低下し、誤検出の原因となる。特に、ゼブラゾーンは白色であるので、誤検出が非常に多くなってしまう。   However, a large hardware configuration is required to convert an image into a bird's-eye view image, and when a white line is detected by a luminance profile, if a vehicle or a road marking (such as a zebra zone) is on the road, they are disturbed. As a result, the detection accuracy of the white line is lowered, which causes false detection. In particular, since the zebra zone is white, erroneous detection becomes very frequent.

本発明は上記のような問題点を解消するためになされたもので、道路上に外乱の要因があった場合でも、車線の検出精度が高く、かつ回路規模が小さくて済む車線識別技術を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a lane identification technique that requires high lane detection accuracy and a small circuit scale even when there is a disturbance factor on the road. The purpose is to do.

本発明に係る車線識別装置の第1の態様は、車載カメラで撮像した画像に基づいて道路の車線を識別する車線識別装置であって、前記画像の1フレーム分の画像データを複数の単位ブロックに区分し、単位ブロックごとに前記画像から前記車線の識別を行う際の外乱要因となる画像の複雑度が所定以上であるかどうかを検出する複雑度検出部と、前記複数の単位ブロックのうち前記画像の複雑度が前記所定以上である単位ブロックについてマスク処理を行うマスク処理部と、前記複数の単位ブロックのうち、前記マスク処理の対象となっていない前記単位ブロックについて前記車線を規定する直線を近似的に検出する直線検出部と、前記単位ブロックごとに検出された直線を、フレーム全体で統合して前記車線とする統合処理部とを備え、前記複雑度検出部は、前記画像の複雑度を、前記単位ブロック内での輝度の分散値と閾値との比較により判定する。 A first aspect of a lane identification device according to the present invention is a lane identification device that identifies a lane on a road based on an image captured by an in-vehicle camera, and that includes image data for one frame of the image as a plurality of unit blocks. A complexity detection unit that detects whether the complexity of the image that is a disturbance factor when identifying the lane from the image for each unit block is greater than or equal to a predetermined value, and among the plurality of unit blocks A mask processing unit that performs mask processing on a unit block having the image complexity equal to or higher than the predetermined value, and a straight line that defines the lane for the unit block that is not the target of the mask processing among the plurality of unit blocks. a line detection unit which detects an approximately, the detected straight lines for each of the unit blocks, by integrating the entire frame and a integration processing unit to the lane, before Complexity detecting unit, the complexity of the image, you determination by comparing the variance value and the threshold value of the brightness in the unit block.

本発明に係る車線識別装置の第の態様は、前記複雑度検出部が、前記画像の複雑度を、前記単位ブロック内での色差の分散値と閾値との比較により判定する。 In a second aspect of the lane identification device according to the present invention, the complexity detection unit determines the complexity of the image by comparing a variance value of color differences in the unit block with a threshold value.

本発明に係る車線識別装置の第の態様は、前記直線検出部が、前記マスク処理の対象となっていない前記単位ブロックについてエッジ検出処理を施し、検出されたエッジを構成する複数の特徴点に対してハフ変換を施すことで、前記車線を規定する直線を近似的に検出する。 A third aspect of the lane identification device according to the present invention is characterized in that the straight line detection unit performs an edge detection process on the unit block that is not a target of the mask process and constitutes a detected edge. A straight line defining the lane is approximately detected by performing a Hough transform on.

本発明に係る車線識別方法は、車載カメラで撮像した画像に基づいて道路の車線を識別する車線識別方法であって、前記画像の1フレーム分の画像データを複数の単位ブロックに区分し、単位ブロックごとに前記画像から前記車線の識別を行う際の外乱要因となる画像の複雑度が所定以上であるかどうかを検出する複雑度検出を行うステップ(a)と、前記複数の単位ブロックのうち前記画像の複雑度が前記所定以上である単位ブロックについてマスク処理を行うステップ(b)と、前記複数の単位ブロックのうち、前記マスク処理の対象となっていない前記単位ブロックについて前記車線を規定する直線を近似的に検出する直線検出処理を行うステップ(c)と、前記単位ブロックごとに検出された直線を、フレーム全体で統合して前記車線とする統合処理を行うステップ(d)とを備え、前記ステップ(a)は、前記画像の複雑度を、前記単位ブロック内での輝度の分散値と閾値との比較により判定するステップを含んでいる。
A lane identification method according to the present invention is a lane identification method for identifying a lane of a road based on an image captured by an in-vehicle camera, wherein image data for one frame of the image is divided into a plurality of unit blocks. (A) performing complexity detection for detecting whether or not the complexity of the image, which becomes a disturbance factor when identifying the lane from the image for each block, is greater than or equal to a predetermined value, and among the plurality of unit blocks A step (b) of performing mask processing on a unit block having a complexity of the image equal to or greater than the predetermined value, and defining the lane for the unit block that is not the target of the mask processing among the plurality of unit blocks. Step (c) for performing a straight line detection process for detecting a straight line approximately, and the straight line detected for each unit block are integrated in the entire frame to form the vehicle. And a step (d) performing the integration process to the step (a), the complexity of the image, comprising the step of determining by comparing the variance value and the threshold value of the brightness in the unit block Yes.

本発明によれば、外乱要因を含む単位ブロックについてはマスク処理を行い、マスク処理の対象となっていない単位ブロックについて車線を規定する直線を近似的に検出することで、外乱要因を除去して車線検出の精度を高めることができる。   According to the present invention, a mask process is performed on a unit block including a disturbance factor, and a disturbance line is removed by approximately detecting a straight line that defines a lane for a unit block that is not subject to a mask process. The accuracy of lane detection can be increased.

本発明に係る実施の形態の車線識別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the lane identification device of embodiment which concerns on this invention. 画像データの読み出し順序を模式的に説明する図である。It is a figure which illustrates the read-out order of image data typically. カメラによって取得された画像の一例を示す図である。It is a figure which shows an example of the image acquired with the camera. 撮影画像を複数のブロックに区分した場合の一例を示す図である。It is a figure which shows an example at the time of dividing a picked-up image into a some block. 車線識別動作を説明するフローチャートである。It is a flowchart explaining a lane identification operation | movement. ハフ変換の概念を説明する図である。It is a figure explaining the concept of Hough conversion. 車線識別動作の変形例を説明するフローチャートである。It is a flowchart explaining the modification of lane identification operation | movement.

<実施の形態>
<装置構成>
図1は、本発明に係る実施の形態の車線識別装置10の構成を示すブロック図である。図1に示されるように、車線識別装置10は、CCD(電荷結合素子)等の撮像素子で撮影した画像をデジタル処理するカメラ11と、画像処理部12と、フレームメモリ13と、情報処理部14と、中間メモリ15とを備えている。
<Embodiment>
<Device configuration>
FIG. 1 is a block diagram showing a configuration of a lane identification device 10 according to an embodiment of the present invention. As shown in FIG. 1, the lane identification device 10 includes a camera 11 that digitally processes an image captured by an imaging device such as a CCD (charge coupled device), an image processing unit 12, a frame memory 13, and an information processing unit. 14 and an intermediate memory 15.

カメラ11は、車両のフロント部(例えば、ルームミラー(車両室内のバックミラー)近傍)に備えられ、車両の進行方向前方を中心とした周辺の道路を撮影可能となっている。   The camera 11 is provided in a front portion of the vehicle (for example, in the vicinity of a rearview mirror (a rearview mirror in the vehicle interior)), and can photograph a road around the vehicle centering on the front in the traveling direction.

画像処理部12は、カメラ11によって取得された画像の画像データに各種画像処理を施す部位であり、画像処理部12で実行される画像処理としては、例えば、不足している色成分を補間により求める画素補間処理(ベイヤ補間)、画像データの色空間を変換する色空間変換処理等がある。   The image processing unit 12 is a part that performs various types of image processing on the image data of the image acquired by the camera 11, and as image processing executed by the image processing unit 12, for example, an insufficient color component is interpolated. There are pixel interpolation processing (Bayer interpolation) to be obtained, color space conversion processing for converting the color space of image data, and the like.

フレームメモリ13は、画像処理部12から出力される画像処理後の画像データをフレーム単位で一時的に記憶するためのメモリである。   The frame memory 13 is a memory for temporarily storing image data after image processing output from the image processing unit 12 in units of frames.

情報処理部14は、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)等で構成され、ROM内に格納されたプログラムを読み出し、当該プログラムをCPUで実行することによって、分散算出部141、マスク処理部142、直線検出部143および統合処理部144を機能的に実現する。なお、当該情報処理部14おいて実現される各機能を、ハードウエア回路で実現しても良い。   The information processing unit 14 is configured by a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and reads out a program stored in the ROM and executes the program by the CPU. The variance calculation unit 141, the mask processing unit 142, the straight line detection unit 143, and the integration processing unit 144 are functionally realized. Each function realized in the information processing unit 14 may be realized by a hardware circuit.

分散算出部141は、フレームメモリ13から1フレーム分の画像データを読み出す際に、当該画像データを複数のブロックに分けてブロック単位で読み出し、単位ブロック中での輝度および色差の少なくとも一方の分散を算出する処理を行う。   When reading the image data for one frame from the frame memory 13, the variance calculation unit 141 divides the image data into a plurality of blocks and reads them in units of blocks, and calculates the variance of at least one of luminance and color difference in the unit blocks. Processing to calculate is performed.

図2は画像データの読み出し順序を模式的に説明する図である。図2に示すように、1フレーム分の画像データは、水平方向(X方向)および垂直方向(Y方向)にそれぞれ複数に分割されて複数のブロックBKに分けられ、ブロック単位でフレームメモリ13から読み出される。ブロック単位での画像データの読み出しは、例えば、図に向かって最上段左端のブロックBKから読み出され、当該ブロックの処理が終了すると、右隣のブロックが読み出され、以後、右側のブロックが順次読み出され、右端に到達すると、次の段の左端のブロックが読み出されるという順序で行われる。   FIG. 2 is a diagram for schematically explaining the reading order of image data. As shown in FIG. 2, image data for one frame is divided into a plurality of blocks BK in the horizontal direction (X direction) and the vertical direction (Y direction). Read out. For example, image data is read out in block units from the block BK at the uppermost left end as shown in the figure. When the processing of the block is completed, the block on the right is read out. When reading is sequentially performed and the right end is reached, the block at the left end of the next stage is read out.

また、各ブロックでの画像データの読み出し順序は、ブロックの最上部列左端のデータから読み出しを行い、右端に到達すると次の列の左端のデータから読み出だされるという順序で行われる。   The reading order of image data in each block is such that reading is performed from the data at the left end of the uppermost column of the block, and when the right end is reached, reading is performed from the data at the left end of the next column.

マスク処理部142は、分散算出部141で算出された単位ブロック中での輝度および色差の少なくとも一方の分散に基づいて、分散の高いブロックの画像データを以後の処理で使用しないようにマスキングする部位であり、例えば、当該ブロックの画像データを全て予め定めた無意のデータに変更するなどの処理を行う。   The mask processing unit 142 masks the image data of the highly dispersed block so as not to be used in the subsequent processing based on at least one of the luminance and color difference variances in the unit block calculated by the variance calculating unit 141. For example, processing such as changing all image data of the block to predetermined unintentional data is performed.

直線検出部143は、マスク処理部142でマスキングされなかったブロックについてエッジ検出処理を施し、検出されたエッジに対して、直線検出処理を施す。エッジ検出処理により、道路の車線を規定する複数のライン(例えば、白線)が検出され、直線検出処理により、当該複数のラインそれぞれに沿った複数の直線が近似的に検出されることになる。直線検出部143における各処理は、処理中のデータを中間メモリ15に記憶しつつ行われる。   The straight line detection unit 143 performs edge detection processing on the blocks that are not masked by the mask processing unit 142, and performs straight line detection processing on the detected edges. A plurality of lines (for example, white lines) that define road lanes are detected by the edge detection process, and a plurality of straight lines along each of the plurality of lines are approximately detected by the straight line detection process. Each process in the straight line detection unit 143 is performed while storing the data being processed in the intermediate memory 15.

直線検出処理としては、例えばハフ(Hough)変換を採用することができるが、他の手法を採用しても良い。なお、ハフ変換以外の直線検出処理としては、最小自乗法を用いた方法などが挙げられる。   As the straight line detection processing, for example, Hough transformation can be adopted, but other methods may be adopted. Note that as a straight line detection process other than the Hough transform, a method using the least square method and the like can be mentioned.

統合処理部144は、ブロック単位で検出された直線を、フレーム全体で統合して車線として表示できるようにする部位である。   The integration processing unit 144 is a part that allows straight lines detected in units of blocks to be integrated over the entire frame and displayed as a lane.

<動作>
次に、図3〜図7を用いて車線識別装置10における車線識別動作について説明する。図3には、カメラ11(図1)によって取得された画像の一例を示している。
<Operation>
Next, a lane identification operation in the lane identification device 10 will be described with reference to FIGS. FIG. 3 shows an example of an image acquired by the camera 11 (FIG. 1).

図3において、自車両の前方には車両OB1およびOB2が2つの車線を併走しており、路肩に引かれた白線WL1およびWL2が車両OB1およびOB2に隠れて見えにくくなっている。また、車両OB1側には、道路に沿って防音壁OB3が設けられ、車両OB2側には、道路に沿ってガードレールOB4が設けられている。   In FIG. 3, vehicles OB1 and OB2 run along two lanes ahead of the host vehicle, and the white lines WL1 and WL2 drawn on the road shoulder are hidden by the vehicles OB1 and OB2 and are difficult to see. A soundproof wall OB3 is provided along the road on the vehicle OB1 side, and a guard rail OB4 is provided along the road on the vehicle OB2 side.

このように、検出対象である車線は先行する車両に隠れて見えなくなる場合もあり、また、車線の近くに防音壁OB3やガードレールOB4があった場合、それらは車線を検出する際の外乱要因となり、それらは、いかなる部分にも発生する可能性がある。   In this way, the lane to be detected may be hidden behind the preceding vehicle and may not be visible, and if there is a soundproof wall OB3 or guardrail OB4 near the lane, they become disturbance factors when detecting the lane. , They can occur anywhere.

図4には、撮影画像を複数のブロックに区分した場合の一例を示す。図4は撮影画像を5×5のブロックに区分した例を示しており図に向かって最上段左上のブロックBKをブロックA1と採番し、以後右方向にA2、A3、A4、A5と採番し、次の段では左端からA6、A7・・と採番している。   FIG. 4 shows an example when the captured image is divided into a plurality of blocks. FIG. 4 shows an example in which the photographed image is divided into 5 × 5 blocks. In the figure, the upper left block BK is numbered as block A1, and the rightward direction is A2, A3, A4, A5. In the next stage, A6, A7 ... are assigned from the left end.

図4において、ブロックA21〜A25には路面のみが表示されているが、画像の上方、すなわち自車両から遠くなるに従って、車両、防音壁、ガードレールが表示されるようになり、画像の複雑度が高くなることが判る。換言すれば車線が表示される領域は比較的複雑度が低いと言える。   In FIG. 4, only the road surface is displayed in the blocks A21 to A25. However, the vehicle, the soundproof wall, and the guardrail are displayed above the image, that is, as the distance from the host vehicle increases, and the complexity of the image is increased. It turns out to be high. In other words, it can be said that the area where the lane is displayed is relatively low in complexity.

そして、画像の複雑度が高くなると、車線を検出する際の外乱要因となり、車線検出の精度が低下するので、画像の複雑度を定量的に算出できる特徴量があれば、算出された画像の複雑度に基づいて、画像の複雑度の高い領域を車線検出の対象から外すことで、外乱要因を除去して車線検出の精度を高めることができる。   And if the complexity of the image becomes high, it becomes a disturbance factor when detecting the lane, and the accuracy of the lane detection decreases, so if there is a feature quantity that can quantitatively calculate the complexity of the image, By excluding a region with a high degree of complexity of the image from the lane detection target based on the complexity, the disturbance factor can be removed and the accuracy of the lane detection can be improved.

例えば、ブロックA16〜A25には路面が表示され、白線WL1〜WL3が表示されているが、そのうち、ブロックA17〜A19には車両OB1およびOB2も表示されており、複雑度が高い領域と考えられる。   For example, road surfaces are displayed in blocks A16 to A25 and white lines WL1 to WL3 are displayed. Of these, vehicles OB1 and OB2 are also displayed in blocks A17 to A19, which is considered to be a high complexity area. .

ここで、画像の複雑度を定量的に算出できる特徴量として空間周波数が挙げられ、空間周波数が高い領域ほど画像の複雑度が高い領域であると定義できる。従って、空間周波数を用いて画像の複雑度を規定し、複雑度の高い領域を車線検出の対象から除外すれば外乱を抑制することが可能であるが、除去したい外乱要因は、例えば先行車両であったり、防音壁であったりして比較的大きな領域を占めるため、ブロック単位で外乱を除去するには、32×32もしくは64×64の比較的大きなブロックサイズとなる。一方、空間周波数を算出するには画像データを周波数領域へと変換する周波数変換が必要となるが、ブロック単位で周波数変換を行う場合、上記のように大きなブロックサイズでは、演算量が極端に大きくなってしまう。   Here, a spatial frequency is cited as a feature quantity that can quantitatively calculate the complexity of an image, and an area with a higher spatial frequency can be defined as an area with a higher image complexity. Therefore, it is possible to suppress the disturbance by defining the complexity of the image using the spatial frequency and excluding the high complexity area from the lane detection target, but the disturbance factor to be removed is, for example, the preceding vehicle Since it occupies a relatively large area, such as a soundproof wall, a relatively large block size of 32 × 32 or 64 × 64 is required to remove disturbance in units of blocks. On the other hand, calculating the spatial frequency requires frequency conversion to convert the image data into the frequency domain. However, when performing frequency conversion in units of blocks, the amount of computation is extremely large with a large block size as described above. turn into.

ここで、周波数変換の例として、一般的なDCT(離散コサイン変換)を以下の数式(1)に示す。   Here, as an example of frequency conversion, a general DCT (Discrete Cosine Transform) is shown in the following formula (1).

Figure 0006126849
Figure 0006126849

上記数式(1)によるDCTを行うには小数成分を含む乗算が必要となり、演算量が比較的大きくなる。   In order to perform DCT according to the above equation (1), multiplication including a decimal component is required, and the amount of calculation becomes relatively large.

そこで、本発明においては、画像の複雑度を定量的に算出する特徴量として輝度値の分散を使用する。また、色の多様性を定量的に算出する特徴量として色差の分散を使用する。   Therefore, in the present invention, luminance value dispersion is used as a feature value for quantitatively calculating the complexity of an image. In addition, color difference dispersion is used as a feature value for quantitatively calculating the color diversity.

ここで、輝度と色差の算出式を以下の数式(2)に示す。   Here, the formula for calculating the luminance and the color difference is shown in the following formula (2).

Figure 0006126849
Figure 0006126849

上記数式(2)において、Rは赤、Gは緑、Bは青を表し、Yは輝度、Cbは青色色差成分、Crは赤色色差成分を表し、画像データから、各画素ごとのR、GおよびBの色データを取得することで、画素ごとに輝度および色差を算出することができる。   In the above equation (2), R represents red, G represents green, B represents blue, Y represents luminance, Cb represents a blue color difference component, and Cr represents a red color difference component. From the image data, R, G for each pixel is represented. By acquiring the B and B color data, it is possible to calculate the luminance and the color difference for each pixel.

このようにして得られた輝度の単位ブロック内での分散は以下の数式(3)により算出することができる。   The dispersion of the luminance thus obtained within the unit block can be calculated by the following mathematical formula (3).

Figure 0006126849
Figure 0006126849

上記数式(3)は、一般的な標本分散を表す式であり、pは輝度値を、Pmeanは輝度値の平均値を表す。 The above mathematical formula (3) is an expression representing a general sample variance, p i represents a luminance value, and P mean represents an average value of the luminance values.

数式(3)より算出された輝度値の分散が高いブロックでは輝度値のばらつきが大きく、画像の複雑度が高いと言うことができ、輝度値の分散が低いブロックでは輝度値のばらつきが小さく、画像の複雑度が低いと言うことができる。これにより画像の複雑度を簡単に定量的に算出することができる。また、輝度値の分散で複雑度を定量的に算出するので、空間周波数を用いて画像の複雑度を算出する際の周波数変換に比べて、演算量を削減できるという効果もある。   It can be said that the luminance value variation with the high luminance value distribution calculated from Equation (3) is large and the image complexity is high, and the luminance value variation is small with the low luminance value block. It can be said that the complexity of the image is low. As a result, the complexity of the image can be easily and quantitatively calculated. In addition, since the complexity is quantitatively calculated by the distribution of luminance values, there is an effect that the amount of calculation can be reduced as compared with the frequency conversion when calculating the complexity of the image using the spatial frequency.

また、色差の単位ブロック内での分散も上記数式(3)と同様に一般的な標本分散を用いて表すことができるが、この場合、pは色差値を、Pmeanは色差値の平均値を表す。 Further, the variance of the color difference within the unit block can also be expressed by using a general sample variance as in the above formula (3). In this case, p i is the color difference value, and P mean is the average of the color difference values. Represents a value.

数式(3)より算出された色差値の分散が高いブロックでは色に多様性があり、複雑な画像と言えるので、画像の複雑度が高いと言うことができ、色差値の分散が低いブロックでは色の種類が少なく画像の複雑度が低いと言うことができる。これにより色の多様性による画像の複雑度を簡単に定量的に算出することができる。   A block having a high variance of color difference values calculated from Equation (3) has a variety of colors and can be said to be a complex image. Therefore, it can be said that the complexity of the image is high, and a block having a low variance of color difference values. It can be said that there are few color types and the complexity of the image is low. As a result, the complexity of the image due to color diversity can be easily and quantitatively calculated.

なお、色差成分にはCb、Crの2種類があるが、CbとCrをそれぞれ使用しても良いし、(Cb−Cr)または(Cb+Cr)を使用しても良い。   There are two types of color difference components, Cb and Cr, but Cb and Cr may be used, or (Cb-Cr) or (Cb + Cr) may be used.

次に、図1を参照しつつ、図5に示すフローチャートを用いて、車線識別装置10における車線識別動作を説明する。車線識別動作が始まると、図5に示されるように、ステップS1において、まず、カメラ11によって、車両の進行方向の道路を被写体とした画像データが取得される。取得された画像データには、画像処理部12によって所定の画像処理が施される。   Next, a lane identification operation in the lane identification device 10 will be described using the flowchart shown in FIG. 5 with reference to FIG. When the lane identification operation starts, as shown in FIG. 5, in step S <b> 1, first, image data with a road in the traveling direction of the vehicle as a subject is acquired by the camera 11. The acquired image data is subjected to predetermined image processing by the image processing unit 12.

画像処理済みの画像データは、一旦、フレームメモリ12に保存された後、図4を用いて説明したような単位ブロックごとに読み出され、情報処理部14の分散算出部141に与えられる(ステップS2)。   The image data that has been subjected to image processing is temporarily stored in the frame memory 12, and then read out for each unit block as described with reference to FIG. 4, and is provided to the variance calculation unit 141 of the information processing unit 14 (step). S2).

分散算出部141では、数式(2)を用いて画像データから、各画素ごとのR、GおよびBの色データを取得した後、数式(3)を用いて、画素ごとに輝度を算出し、単位ブロック内での輝度の分散を算出する(ステップS3)。   In the variance calculation unit 141, after obtaining R, G, and B color data for each pixel from the image data using Equation (2), the luminance is calculated for each pixel using Equation (3). The variance of luminance within the unit block is calculated (step S3).

そして、算出した輝度の分散の値が、予め定めた閾値(例えば画素平均値など、フレームごとに固有で有意な値)以上であるか否かを判断し(ステップS4)、閾値以上である場合は、その単位ブロックは画像の複雑度が高く、外乱要因が含まれるブロックであると判断し、ステップS5に進む。   Then, it is determined whether or not the calculated luminance dispersion value is equal to or greater than a predetermined threshold value (for example, a pixel average value such as a unique and significant value for each frame) (step S4). Determines that the unit block has high image complexity and includes a disturbance factor, and proceeds to step S5.

ステップS5では、マスク処理部142において、画像の複雑度が高く、外乱要因が含まれるブロックに対して以後の処理で使用しないようにマスク処理を行う。   In step S <b> 5, the mask processing unit 142 performs mask processing so that a block having a high image complexity and including a disturbance factor is not used in subsequent processing.

一方、ステップS4で、算出した輝度の分散の値が閾値未満であると判断された場合はステップS11に進み、数式(3)を用いて、画素ごとに色差を算出し、単位ブロック内での色差の分散を算出する。   On the other hand, if it is determined in step S4 that the calculated luminance variance value is less than the threshold value, the process proceeds to step S11, where the color difference is calculated for each pixel using Equation (3), Calculate the variance of the color difference.

そして、算出した色差の分散の値が、予め定めた閾値(フレームに関わらず一定の値)以上であるか否かを判断し(ステップS12)、閾値以上である場合は、その単位ブロックは多様な色を有し画像の複雑度が高く、外乱要因が含まれるブロックであると判断し、ステップS5に進む。すなわち、車線および路面は色彩に乏しいものであるのに対し、多様な色を有するブロックは車線や路面ではなく外乱要因を含むものと判断する。   Then, it is determined whether or not the calculated color difference variance value is equal to or greater than a predetermined threshold value (a constant value regardless of the frame) (step S12). It is determined that the block has a complex color, has a high degree of image complexity, and includes a disturbance factor, and proceeds to step S5. That is, while the lane and the road surface are poor in color, it is determined that blocks having various colors include disturbance factors rather than the lane and the road surface.

例えば、図4においてブロックA20は白線WL1の他には防音壁OB3を含むだけであるので、画像の複雑度は低いと言えるが、防音壁OB3に色彩が施されていたり、広告の看板が設けられている場合には多様な色を有するブロックとなり、画像の複雑度が高く、外乱要因を含むこととなる。   For example, in FIG. 4, since the block A20 only includes the soundproof wall OB3 in addition to the white line WL1, it can be said that the complexity of the image is low, but the soundproof wall OB3 is colored or an advertising signboard is provided. In other words, the block has various colors, the image has a high degree of complexity, and includes disturbance factors.

なお、上述したように、分散算出部141は、輝度の分散や色差の分散を算出することで、単位ブロックの画像が複雑であるか否かを検出するので、複雑度検出部として機能する部位であると言うことができる。   As described above, the variance calculation unit 141 detects whether the image of the unit block is complex by calculating the variance of luminance and the variance of chrominance, so that the part that functions as the complexity detection unit It can be said that.

また、図4においてブロックA1〜A5、A6〜A10は、空や背景を表示する領域であるが、これらの領域には、車線を含まないことは明らかであるので、例えばブロックA6〜A10以上のブロックについては分散の算出処理や、直線検出処理を行わない領域として予めデフォルト設定しておくことで、無用の処理を省いて、車線識別動作を迅速化することができる。   In FIG. 4, the blocks A1 to A5 and A6 to A10 are areas for displaying the sky and the background, but it is clear that these areas do not include lanes. By setting a block as a default area in which variance calculation processing and straight line detection processing are not performed, unnecessary processing can be omitted and lane identification operation can be speeded up.

ステップS5では、マスク処理部142において、画像の複雑度が高いブロックに対して以後の処理で使用しないようにマスク処理を行う。   In step S <b> 5, the mask processing unit 142 performs mask processing so that the block with high image complexity is not used in the subsequent processing.

一方、ステップS12で、算出した色差の分散の値が閾値未満であると判断された場合はステップS13に進み直線検出を行う。   On the other hand, if it is determined in step S12 that the calculated color difference variance is less than the threshold value, the process proceeds to step S13 to perform straight line detection.

ステップS13では、直線検出部143において、単位ブロック内の画像についてエッジ検出処理を施し、検出されたエッジに対して直線検出処理を施す。直線検出処理としてはハフ変換を使用することができる。   In step S13, the line detection unit 143 performs edge detection processing on the image in the unit block, and performs line detection processing on the detected edge. Hough transform can be used as the straight line detection process.

図6は、ハフ変換の概念を説明する図である。図6に示すように、検出されたエッジを構成する特徴点P0、P1、P2、P3およびP4がある場合、ハフ変換では、特徴点P0〜P4のそれぞれを中心として0゜から180゜まで所定角度で変化するように直線を決定する。図6では特徴点P0を通る複数の直線を示している。このように、平面上の複数の特徴点のそれぞれに対して複数の直線を発生させ、共通する直線を決定することで、エッジ、すなわち、車線の端縁を規定する。   FIG. 6 is a diagram for explaining the concept of the Hough transform. As shown in FIG. 6, when there are feature points P0, P1, P2, P3, and P4 constituting the detected edge, in the Hough transform, a predetermined value from 0 ° to 180 ° is set around each of the feature points P0 to P4. The straight line is determined so as to change with the angle. FIG. 6 shows a plurality of straight lines passing through the feature point P0. In this way, a plurality of straight lines are generated for each of a plurality of feature points on a plane, and a common straight line is determined, thereby defining an edge, that is, an edge of a lane.

ハフ変換などの投票によって直線を決定する方式の場合、特徴点の取得順番が検出性能に影響を与えないことから、ブロック単位で処理を進めても問題がなく、画像を複数のブロックに区分し、外乱要因が含まれるブロックについては直線検出処理の対象としないことで検出精度を高めるという本発明に適した方式であると言える。   In the case of a method of determining a straight line by voting such as Hough transform, since the acquisition order of feature points does not affect the detection performance, there is no problem even if processing proceeds in units of blocks, and the image is divided into multiple blocks. It can be said that this is a method suitable for the present invention in which the detection accuracy is improved by not making the block including the disturbance factor the target of the straight line detection process.

以上説明したステップS2〜S5、S11〜S13の処理は、1フレーム内の全ての単位ブロックに対して実行されるまで繰り返され(ステップS6)、全ての単位ブロック対する処理を終了した後はステップS7に進む。   The processes in steps S2 to S5 and S11 to S13 described above are repeated until they are executed for all unit blocks in one frame (step S6). After the processes for all unit blocks are completed, step S7 is performed. Proceed to

ステップS7では、統合処理部144において、マスク処理の対象とならないブロックで検出された直線のうち実際に存在する可能性の高い直線を統合し、最終的に車線として表示できるように処理する。   In step S7, the integration processing unit 144 integrates straight lines that are highly likely to exist among the straight lines detected in the blocks that are not subject to mask processing, and finally performs processing so as to be displayed as lanes.

この処理には、例えば、図4においてブロックA16、A20、A21、A22およびA25などから白線WL1、WL2およびWL3に対応する直線が検出された場合、白線WL3については車線として表示できるが、白線WL1およびWL2についてはブロックA12およびA19がマスク処理の対象となっているので表示できない。そこで、ブロックA12およびA19に該当する領域の白線WL1およびWL2については、ブロックA16、A20およびA25で得られた白線WL1およびWL2に対して外挿するなどの方法により白線データを作成する処理を含んでいる。   In this processing, for example, when straight lines corresponding to the white lines WL1, WL2, and WL3 are detected from the blocks A16, A20, A21, A22, and A25 in FIG. 4, the white line WL3 can be displayed as a lane, but the white line WL1 And WL2 cannot be displayed because blocks A12 and A19 are masked. Therefore, processing for generating white line data by a method such as extrapolating the white lines WL1 and WL2 in the areas corresponding to the blocks A12 and A19 with respect to the white lines WL1 and WL2 obtained in the blocks A16, A20, and A25 is included. It is out.

直線の統合処理が終了した後は、カメラ11からの次のフレームデータの入力を受けて(ステップS8)、ステップS1以下の処理を繰り返す。   After the straight line integration process is completed, the input of the next frame data from the camera 11 is received (step S8), and the processes after step S1 are repeated.

なお、以上の説明では、直線検出部143において直線検出処理を行うものと説明したが、道路のカーブにおける車線も直線で近似することで検出可能である。   In the above description, the straight line detection unit 143 performs straight line detection processing. However, a lane in a road curve can also be detected by approximating it with a straight line.

以上説明した実施の形態の車線識別装置10によれば、車線を検出する際の外乱要因となる画像の複雑度を、輝度および色差の分散により複雑度を算出し、算出された画像の複雑度に基づいて、画像の複雑度の高い領域を車線検出の対象から外すことで、外乱要因を除去して車線検出の精度を高めることができる。また、輝度だけでなく色差についても分散により画像の複雑度を算出することで、色の多様性の点からも画像の複雑度を判断することができ、演算量を増大させずに検出精度を上げることができる。また、車線の検出に際しては、画像を俯瞰画像に変換する必要もないので、回路規模などハードウエア構成が大きくなることもない。   According to the lane identification device 10 of the embodiment described above, the complexity of the image, which is a disturbance factor when detecting the lane, is calculated by the distribution of luminance and color difference, and the calculated complexity of the image is calculated. Based on the above, it is possible to remove the disturbance factor and improve the accuracy of the lane detection by excluding the area with high image complexity from the lane detection target. Also, by calculating the complexity of the image not only for the luminance but also for the color difference, it is possible to determine the complexity of the image from the viewpoint of color diversity, and to improve detection accuracy without increasing the amount of computation. Can be raised. Further, when detecting the lane, it is not necessary to convert the image into a bird's-eye view image, so that the hardware configuration such as the circuit scale does not increase.

<変形例>
以上説明した実施の形態においては、単位ブロック中での輝度および色差の分散を算出することで、画像の複雑度が高く、外乱要因が含まれるブロックを特定する構成を示したが、色差の分散は算出せずに輝度の分散だけで外乱要因が含まれるブロックを特定する構成としても良い。これにより、色差の分散も算出する場合に比べて、演算量を低減することができる。
<Modification>
In the embodiment described above, the configuration in which the luminance and chrominance variance in a unit block is calculated to identify a block having a high image complexity and including a disturbance factor has been described. It is good also as a structure which specifies the block in which a disturbance factor is included only by dispersion | distribution of a brightness | luminance, without calculating. As a result, the amount of calculation can be reduced as compared to the case of calculating the variance of the color difference.

以下、図7に示すフローチャートを用いて、画像の複雑度が高く、外乱要因が含まれるブロックを輝度の分散だけで特定する場合の車線識別動作を説明する。なお、図7において、ステップS1〜S4の動作は、図5に示したステップS1〜S4の動作と同じであるので説明は省略する。   Hereinafter, a lane identification operation in a case where a block having a high image complexity and including a disturbance factor is specified only by luminance distribution will be described with reference to a flowchart shown in FIG. In FIG. 7, the operations in steps S1 to S4 are the same as the operations in steps S1 to S4 shown in FIG.

ステップS4では、算出した輝度の分散の値が、予め定めた閾値(例えば画素平均値など、フレームごとに固有で有意な値)以上であるか否かを判断し、閾値以上である場合は、その単位ブロックは画像の複雑度が高く、外乱要因が含まれるブロックであると判断し、ステップS5に進む。   In step S4, it is determined whether or not the calculated luminance dispersion value is equal to or greater than a predetermined threshold value (for example, a pixel average value such as a unique and significant value for each frame). The unit block is determined to be a block having a high image complexity and a disturbance factor, and the process proceeds to step S5.

ステップS5では、マスク処理部142において、画像の複雑度が高く、外乱要因が含まれるブロックに対して以後の処理で使用しないようにマスク処理を行う。   In step S <b> 5, the mask processing unit 142 performs mask processing so that a block having a high image complexity and including a disturbance factor is not used in subsequent processing.

一方、ステップS4で、算出した輝度の分散の値が閾値未満であると判断された場合はステップS9に進み直線検出を行う。   On the other hand, if it is determined in step S4 that the calculated luminance variance is less than the threshold value, the process proceeds to step S9 to perform straight line detection.

ステップS9では、直線検出部143において、単位ブロック内の画像についてエッジ検出処理を施し、検出されたエッジに対して直線検出処理を施す。直線検出処理としてはハフ変換を使用することができる。   In step S9, the line detection unit 143 performs edge detection processing on the image in the unit block, and performs line detection processing on the detected edge. Hough transform can be used as the straight line detection process.

以上説明したステップS2〜S5、S9の処理は、1フレーム内の全ての単位ブロックに対して実行されるまで繰り返され(ステップS6)、全ての単位ブロック対する処理を終了した後はステップS7に進む。   The processes in steps S2 to S5 and S9 described above are repeated until all the unit blocks in one frame are executed (step S6). After the processes for all the unit blocks are completed, the process proceeds to step S7. .

ステップS7では、統合処理部144において、マスク処理の対象とならないブロックで検出された直線のうち実際に存在する可能性の高い直線を統合し、最終的に車線として表示できるように処理する。   In step S7, the integration processing unit 144 integrates straight lines that are highly likely to exist among the straight lines detected in the blocks that are not subject to mask processing, and finally performs processing so as to be displayed as lanes.

直線の統合処理が終了した後は、カメラ11からの次のフレームデータの入力を受けて(ステップS8)、ステップS1以下の処理を繰り返す。   After the straight line integration process is completed, the input of the next frame data from the camera 11 is received (step S8), and the processes after step S1 are repeated.

また、上記変形例では、単位ブロック中での輝度の分散を算出することで、画像の複雑度が高く、外乱要因が含まれるブロックを特定する構成を示したが、色差の分散だけで、画像の複雑度が高く、外乱要因が含まれるブロックを特定する構成としても良い。その場合は、図7に示すフローチャートにおいて、ステップS3において色差の分散を算出し、ステップS4において色差の分散値が閾値以上であるか否かを判断することとなる。   Further, in the above-described modification, the configuration in which the luminance variance in the unit block is calculated to identify a block having a high image complexity and including a disturbance factor is shown. It is good also as a structure which specifies the block where the complexity of is high and a disturbance factor is contained. In that case, in the flowchart shown in FIG. 7, the variance of the color difference is calculated in step S3, and it is determined whether or not the variance value of the color difference is greater than or equal to the threshold value in step S4.

なお、本発明は、その発明の範囲内において、実施の形態を適宜、変形、省略することが可能である。   In the present invention, the embodiments can be appropriately modified and omitted within the scope of the invention.

10 車線識別装置
141 分散算出部
142 マスク処理部
143 直線検出部
144 統合処理部
DESCRIPTION OF SYMBOLS 10 Lane identification device 141 Variance calculation part 142 Mask process part 143 Straight line detection part 144 Integrated process part

Claims (4)

車載カメラで撮像した画像に基づいて道路の車線を識別する車線識別装置であって、
前記画像の1フレーム分の画像データを複数の単位ブロックに区分し、単位ブロックごとに前記画像から前記車線の識別を行う際の外乱要因となる画像の複雑度が所定以上であるかどうかを検出する複雑度検出部と、
前記複数の単位ブロックのうち前記画像の複雑度が前記所定以上である単位ブロックについてマスク処理を行うマスク処理部と、
前記複数の単位ブロックのうち、前記マスク処理の対象となっていない前記単位ブロックについて前記車線を規定する直線を近似的に検出する直線検出部と、
前記単位ブロックごとに検出された直線を、フレーム全体で統合して前記車線とする統合処理部と、を備え
前記複雑度検出部は、
前記画像の複雑度を、前記単位ブロック内での輝度の分散値と閾値との比較により判定する車線識別装置。
A lane identification device for identifying a road lane based on an image captured by an in-vehicle camera,
The image data for one frame of the image is divided into a plurality of unit blocks, and it is detected whether the complexity of the image, which becomes a disturbance factor when identifying the lane from the image for each unit block, is greater than or equal to a predetermined value. A complexity detection unit,
A mask processing unit that performs mask processing on a unit block of which the complexity of the image is not less than the predetermined value among the plurality of unit blocks;
A straight line detection unit that approximately detects a straight line that defines the lane for the unit block that is not the target of the mask processing among the plurality of unit blocks;
The detected straight line for each of said unit blocks, by integrating the entire frame and a integration processing unit to the lane,
The complexity detector
The complexity of the image, the lane identifying unit you determined by comparing the variance value and the threshold value of the brightness in the unit block.
前記複雑度検出部は、
前記画像の複雑度を、前記単位ブロック内での色差の分散値と閾値との比較により判定する、請求項1記載の車線識別装置。
The complexity detector
The lane identification device according to claim 1, wherein the degree of complexity of the image is determined by comparing a dispersion value of a color difference in the unit block with a threshold value.
前記直線検出部は、
前記マスク処理の対象となっていない前記単位ブロックについてエッジ検出処理を施し、検出されたエッジを構成する複数の特徴点に対してハフ変換を施すことで、前記車線を規定する直線を近似的に検出する、請求項記載の車線識別装置。
The straight line detector
An edge detection process is performed on the unit block that is not subject to the mask process, and a Hough transform is performed on a plurality of feature points that constitute the detected edge, thereby approximating a straight line that defines the lane. detected, the lane identification apparatus according to claim 1.
車載カメラで撮像した画像に基づいて道路の車線を識別する車線識別方法であって、
(a)前記画像の1フレーム分の画像データを複数の単位ブロックに区分し、単位ブロックごとに前記画像から前記車線の識別を行う際の外乱要因となる画像の複雑度が所定以上であるかどうかを検出する複雑度検出を行うステップと、
(b)前記複数の単位ブロックのうち前記画像の複雑度が前記所定以上である単位ブロックについてマスク処理を行うステップと、
(c)前記複数の単位ブロックのうち、前記マスク処理の対象となっていない前記単位ブロックについて前記車線を規定する直線を近似的に検出する直線検出処理を行うステップと、
(d)前記単位ブロックごとに検出された直線を、フレーム全体で統合して前記車線とする統合処理を行うステップと、を備え
前記ステップ(a)は、
前記画像の複雑度を、前記単位ブロック内での輝度の分散値と閾値との比較により判定するステップを含む車線識別方法。
A lane identification method for identifying a road lane based on an image captured by an in-vehicle camera,
(A) Whether the image data for one frame of the image is divided into a plurality of unit blocks, and the complexity of the image, which becomes a disturbance factor when identifying the lane from the image for each unit block, is greater than or equal to a predetermined value Performing complexity detection to detect if;
(B) performing a mask process on a unit block of which the complexity of the image is not less than the predetermined value among the plurality of unit blocks;
(C) performing a straight line detection process of approximately detecting a straight line defining the lane for the unit block that is not the target of the mask process among the plurality of unit blocks;
(D) the detected straight line for each of said unit blocks, by integrating the entire frame and a step of performing integration processing to the lane,
The step (a)
A lane identification method including a step of determining the complexity of the image by comparing a luminance dispersion value in the unit block with a threshold value .
JP2013011898A 2013-01-25 2013-01-25 Lane identification device and lane identification method Active JP6126849B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013011898A JP6126849B2 (en) 2013-01-25 2013-01-25 Lane identification device and lane identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013011898A JP6126849B2 (en) 2013-01-25 2013-01-25 Lane identification device and lane identification method

Publications (2)

Publication Number Publication Date
JP2014142866A JP2014142866A (en) 2014-08-07
JP6126849B2 true JP6126849B2 (en) 2017-05-10

Family

ID=51424083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013011898A Active JP6126849B2 (en) 2013-01-25 2013-01-25 Lane identification device and lane identification method

Country Status (1)

Country Link
JP (1) JP6126849B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6647171B2 (en) * 2016-07-29 2020-02-14 エヌ・ティ・ティ・コムウェア株式会社 Information processing apparatus, information processing method, and program
KR102119678B1 (en) * 2018-08-08 2020-06-08 주식회사 넥스트칩 Lane detection method and electronic device performing the method
CN115588131B (en) * 2022-09-30 2024-02-06 北京瑞莱智慧科技有限公司 Model robustness detection method, related device and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2962799B2 (en) * 1990-09-28 1999-10-12 マツダ株式会社 Roadside detection device for mobile vehicles
JP3463858B2 (en) * 1998-08-27 2003-11-05 矢崎総業株式会社 Perimeter monitoring device and method
JP5039013B2 (en) * 2008-04-09 2012-10-03 本田技研工業株式会社 Vehicle travel support device, vehicle, vehicle travel support program

Also Published As

Publication number Publication date
JP2014142866A (en) 2014-08-07

Similar Documents

Publication Publication Date Title
CN110473242B (en) Texture feature extraction method, texture feature extraction device and terminal equipment
CN107392139B (en) Lane line detection method based on Hough transform and terminal equipment
CN107909007B (en) lane line detection method and device
CN113988112B (en) Method, device and equipment for detecting lane line and storage medium
CN112052782A (en) Around-looking-based parking space identification method, device, equipment and storage medium
JP2018106259A (en) Division line recognition device
US20130286207A1 (en) Imaging apparatus, imaging processing method, image processing device and imaging processing system
JP6126849B2 (en) Lane identification device and lane identification method
JP7236857B2 (en) Image processing device and image processing method
CN110035281B (en) Dead pixel detection method and device and electronic equipment
JP6375911B2 (en) Curve mirror detector
JP5091897B2 (en) Stop line detector
CN111222446A (en) Face recognition method, face recognition device and mobile terminal
WO2018088262A1 (en) Parking frame recognition device
US11842544B2 (en) Automatic perspective transformation
CN114166132A (en) Vehicle height snapshot measuring method and device
JP2018072884A (en) Information processing device, information processing method and program
CN112364693A (en) Barrier identification method, device and equipment based on binocular vision and storage medium
JPH1166490A (en) Vehicle detecting method
JP3331095B2 (en) In-vehicle image processing device
JP6677142B2 (en) Parking frame recognition device
JP5867207B2 (en) Image processing apparatus, image processing system, and image processing method
CN112183413B (en) Parking space detection method and device, storage medium and vehicle
JP3198258B2 (en) Parked vehicle detection method and device
KR101440293B1 (en) Apparatus and method for detecting crosswalk

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170410

R150 Certificate of patent or registration of utility model

Ref document number: 6126849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150