JP6698191B1 - Road marking failure detection device, road marking failure detection method, and road marking failure detection program - Google Patents

Road marking failure detection device, road marking failure detection method, and road marking failure detection program Download PDF

Info

Publication number
JP6698191B1
JP6698191B1 JP2019060151A JP2019060151A JP6698191B1 JP 6698191 B1 JP6698191 B1 JP 6698191B1 JP 2019060151 A JP2019060151 A JP 2019060151A JP 2019060151 A JP2019060151 A JP 2019060151A JP 6698191 B1 JP6698191 B1 JP 6698191B1
Authority
JP
Japan
Prior art keywords
road marking
marking
image
road
blurring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019060151A
Other languages
Japanese (ja)
Other versions
JP2020160840A (en
Inventor
小野 貴史
貴史 小野
真司 堂阪
真司 堂阪
中村 隆幸
隆幸 中村
俊彦 原田
俊彦 原田
Original Assignee
エヌ・ティ・ティ・コムウェア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エヌ・ティ・ティ・コムウェア株式会社 filed Critical エヌ・ティ・ティ・コムウェア株式会社
Priority to JP2019060151A priority Critical patent/JP6698191B1/en
Application granted granted Critical
Publication of JP6698191B1 publication Critical patent/JP6698191B1/en
Publication of JP2020160840A publication Critical patent/JP2020160840A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】路面標示の視認性をより簡易に、より安定して評価することを目的とする。【解決手段】形状推定部112が、道路を撮影した撮影画像から路面標示の形状を推定して路面標示の有無及び種別を分類し、濃淡推定部113が、撮影画像から路面標示の濃淡を推定して路面標示の掠れ度合いの段階を分類し、区画線評価部115が、複数の撮影画像をまとめた区間ごとに区画線の掠れ度合いを評価し、出力部116が、区間ごとの区画線の掠れ度合いを出力する。【選択図】図1An object of the present invention is to evaluate the visibility of road markings more easily and more stably. A shape estimation unit 112 estimates the shape of a road marking from a captured image of a road to classify the presence or absence of the road marking and the type, and a density estimation unit 113 estimates the density of the road marking from the captured image. Then, the grade of blurring degree of the road marking is classified, the marking line evaluation unit 115 evaluates the blurring degree of the marking line for each section in which a plurality of photographed images are collected, and the output unit 116 determines the marking line for each section. Output the blurring degree. [Selection diagram] Figure 1

Description

本発明は、路面標示の撮影画像を解析処理して、路面標示の不具合を検出する技術に関する。   The present invention relates to a technique of analyzing a captured image of a road marking to detect a defect in the road marking.

従来、車道外側線や追い越し禁止線などの路面標示の維持管理のため、目視による点検作業が行われてきた。路面標示は、道路利用者の安全を担保するための情報であり、路面標示の視認性を良好な状態に保つことは重要である。路面標示の塗り替えの判断においては、観測者が路面標示を視認し、視認した印象によりランク区分する目視評価ランクと呼ばれる指標が用いられることが多い。   Conventionally, visual inspection work has been performed in order to maintain and manage road markings such as outside road lines and overtaking prohibition lines. The road marking is information for ensuring the safety of road users, and it is important to keep the visibility of the road marking in good condition. In determining the repainting of the road marking, an observer visually recognizes the road marking, and an index called a visual evaluation rank is often used to rank the road markings according to the impression of the visual recognition.

全国道路標識・標示業協会著、「路面標示ハンドブック」、全国道路標識・標示業協会出版、2012年10月1日National Road Signs and Markers Association, "Road Marking Handbook", Published by National Road Signs and Markers Association, October 1, 2012

目視評価ランクの評価にあたっては、人による目視点検が行われていた。評価は観測者の印象によるものであるので、観測者によって評価が異なることがあり、評価を物理量又は機械的な処理を用いて一意に定めることができないという問題があった。   Visual evaluation was conducted by humans in order to evaluate the visual evaluation rank. Since the evaluation depends on the impression of the observer, the evaluation may be different depending on the observer, and there is a problem that the evaluation cannot be uniquely determined by using a physical quantity or mechanical processing.

従来の目視による点検作業は、個々の路面標示に対する掠れ度合いを算定するのみである。区画線あるいは区画線様の道路延長に沿った形状を持つ路面標示(以下、単に「区画線」と称する)については、道路の一定の区間に対する掠れ度合いは分からなかったため、路面標示の塗り替え工事を一定の区間に対して実施すべきか否かの判断が行いにくいという問題があった。   Conventional visual inspection work only calculates the degree of blurring for each road marking. For road markings that have a shape that extends along a marking line or marking line-like road (hereinafter simply referred to as "marking lines"), we did not know the degree of blurring for a certain section of the road. There was a problem that it was difficult to judge whether or not to implement it for a certain section.

本発明は、上記に鑑みてなされたものであり、路面標示の視認性をより簡易に、より適切に評価することを目的とする。   The present invention has been made in view of the above, and it is an object of the present invention to more easily and more appropriately evaluate the visibility of road markings.

本発明に係る路面標示不具合検出装置は、道路標示及び区画線及び法定外表示の少なくともいずれかを含む路面標示を撮影した撮影画像から前記路面標示の不具合を検出する路面標示不具合検出装置であって、撮影画像から前記路面標示の形状を推定して前記路面標示の有無及び種別を分類する形状推定手段と、前記路面標示が有ると分類された前記撮影画像から前記路面標示の色の濃淡を推定して前記路面標示の掠れ度合いの段階を分類する濃淡推定手段と、前記路面標示が区画線の場合は、複数の前記撮影画像をまとめた区間ごとに前記区画線の掠れ度合いを評価する区画線評価手段と、区間ごとの前記区画線の掠れ度合いを出力する出力手段と、を有することを特徴とする。   A road marking defect detecting device according to the present invention is a road marking defect detecting device for detecting a defect of the road marking from a photographed image of a road marking including at least one of a road marking, a marking line and a non-legal display. A shape estimating means for estimating the shape of the road marking from a photographed image to classify the presence or absence and the type of the road marking, and estimating the shade of the road marking from the photographed image classified as having the road marking Then, the density estimation means for classifying the degree of blurring degree of the road marking, and when the road marking is a lane marking, a lane marking for evaluating the grading degree of the lane marking for each section in which a plurality of the photographed images are combined. It is characterized by having an evaluation means and an output means for outputting the blurring degree of the lane marking for each section.

本発明によれば、ビデオカメラ等で道路を撮影した撮影画像に基づいて画像に写り込んだ路面標示の有無及び種別及び掠れ度合いを区間ごとに判定するので、路面標示の視認性をより簡易に、より適切に評価することができる。   According to the present invention, the presence or absence of a road marking reflected in the image, the type, and the degree of blurring are determined for each section based on a captured image of a road taken by a video camera or the like, so that the visibility of the road marking can be simplified. , Can be evaluated more appropriately.

本実施の形態における路面標示不具合検出装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the road marking malfunction detection apparatus in this Embodiment. 道路を撮影した撮影画像の例を示す図である。It is a figure which shows the example of the captured image which imaged the road. 形状推定部にて用いられる畳み込みニューラルネットワークが分類するクラスの例を示す図である。It is a figure which shows the example of the class which the convolutional neural network used by a shape estimation part classifies. 形状推定部にて用いられる畳み込みニューラルネットワークが分類するクラスの例を示す図である。It is a figure which shows the example of the class which the convolutional neural network used by a shape estimation part classifies. 濃淡推定部にて用いられる畳み込みニューラルネットワークが分類するクラスの例を示す図である。It is a figure which shows the example of the class which the convolutional neural network used by a gray level estimation part classifies. 路面標示不具合検出装置のメインルーチンのフローチャートである。It is a flowchart of the main routine of the road marking defect detection device. 形状推定サブルーチンのフローチャートである。It is a flowchart of a shape estimation subroutine. 道路を撮影した撮影画像から部分画像を得る例を示す図である。It is a figure which shows the example which acquires a partial image from the picked-up image which imaged the road. 同一の路面標示が複数の部分画像にまたがっている例を示す図である。It is a figure which shows the example in which the same road marking straddles several partial images. 図8の複数の部分画像を結合して1つの部分画像とした例を示す図である。It is a figure which shows the example which combined several partial image of FIG. 8 and set it as one partial image. 濃淡推定サブルーチンのフローチャートである。It is a flowchart of a gradation estimation subroutine. 区画線評価サブルーチンのフローチャートである。It is a flowchart of a lane marking evaluation subroutine. 部分画像のスコアの計算例を示す図である。It is a figure which shows the example of calculation of the score of a partial image. 部分画像のスコアの計算例を示す図である。It is a figure which shows the example of calculation of the score of a partial image. 1つの区画線が撮影画像内の複数箇所で検出された例を示す図である。It is a figure which shows the example in which one division line was detected in the some location in a picked-up image. 部分画像のスコアを重み付ける例を示すグラフである。It is a graph which shows the example which weights the score of a partial image. 区間内の静止画のスコアの平均値を区間のレベルに変換するグラフを示す図である。It is a figure which shows the graph which converts the average value of the score of the still image in an area into the level of an area. 結果出力サブルーチンのフローチャートである。It is a flowchart of a result output subroutine. 路面標示不具合検出装置の出力結果を利用したアプリケーションの画面の例を示す図である。It is a figure which shows the example of the screen of the application using the output result of the road marking malfunction detection apparatus. 路面標示不具合検出装置の出力結果を利用したアプリケーションの画面の例を示す図である。It is a figure which shows the example of the screen of the application using the output result of the road marking malfunction detection apparatus.

本発明の実施の形態の一つを以下に示す。   One of the embodiments of the present invention will be described below.

[路面標示画像処理装置の構成]
図1は本実施の形態における路面標示画像処理装置の構成を示す機能ブロック図である。
[Configuration of road marking image processing device]
FIG. 1 is a functional block diagram showing the configuration of the road marking image processing device according to the present embodiment.

図1に示す路面標示不具合検出装置100は、静止画取得部111、畳み込みニューラルネットワーク121とパラメータ122から構成される形状推定部112、畳み込みニューラルネットワーク123とパラメータ124から構成される濃淡推定部113、撮影位置突合部114、区画線評価部115、及び出力部116を具備する。   The road marking defect detection apparatus 100 shown in FIG. 1 includes a still image acquisition unit 111, a shape estimation unit 112 including a convolutional neural network 121 and a parameter 122, a density estimation unit 113 including a convolutional neural network 123 and a parameter 124, The imaging position abutting unit 114, the lane marking evaluation unit 115, and the output unit 116 are provided.

静止画取得部111は、路面標示の掠れ度合いを判定するために用いる撮影画像(静止画)を取得する。本実施の形態においては、市販ビデオカメラを車両に搭載して走行しながら撮影した撮影動画のファイルをメモリカードなどの記憶媒体101に格納して、当該メモリカードを路面標示不具合検出装置100に装着して読み込ませる。静止画取得部111は、記憶媒体101から読み込んだ撮影動画から一定間隔ごとに静止画を取得する。記憶媒体101に保存されている撮影動画の各フレームに着目した場合、それぞれのフレームを静止画とみなすことができる。なお、本装置は静止画又は動画像の撮影の方法には依らず、例えば地上にて市販カメラを用いて路面標示を接写した静止画を用いてもよい。静止画取得部111は、ネットワークを介して撮影動画又は静止画を取得してもよい。   The still image acquisition unit 111 acquires a captured image (still image) used to determine the degree of blurring of the road marking. In the present embodiment, a commercially available video camera is mounted on a vehicle, a file of a moving image captured while traveling is stored in a storage medium 101 such as a memory card, and the memory card is attached to the road marking defect detection device 100. And read it. The still image acquisition unit 111 acquires a still image from the captured moving image read from the storage medium 101 at regular intervals. When focusing on each frame of the captured moving image stored in the storage medium 101, each frame can be regarded as a still image. Note that this device does not depend on the method of capturing a still image or a moving image, and may use a still image obtained by taking a close-up of the road marking using a commercially available camera on the ground, for example. The still image acquisition unit 111 may acquire a captured moving image or a still image via a network.

図2は道路を撮影した撮影画像の例を示す図である。同図に示す撮影画像201は、片側1車線の左側通行の道路を撮影した画像である。撮影画像201には、横断歩道予告202、車道外側線203、追い越しのための右側部分はみ出し通行禁止204、及び歩道の端205が写り込んでいる。歩道の端205より左には道路に面した家屋などが写り込んでいる。撮影画像201の幅及び高さはいかようでもよいが、本実施の形態においては、撮影画像201は幅3600ピクセル、高さ2000ピクセルであるとする。   FIG. 2 is a diagram showing an example of a photographed image of a road. A photographed image 201 shown in the figure is a photographed image of a road on the left side of one lane on each side. In the photographed image 201, a pedestrian crossing notice 202, a road outside line 203, a right-hand side prohibition passage 204 for overtaking, and a sidewalk edge 205 are reflected. On the left side of the edge 205 of the sidewalk, houses and the like facing the road are reflected. The photographed image 201 may have any width and height, but in the present embodiment, the photographed image 201 has a width of 3600 pixels and a height of 2000 pixels.

形状推定部112は、静止画に写った路面標示の種別を分類する。本実施の形態では、形状推定部112は、畳み込みニューラルネットワークを用いて静止画に写った路面標示の種別を分類する。   The shape estimation unit 112 classifies the types of road markings shown in the still image. In the present embodiment, the shape estimation unit 112 classifies the types of road markings captured in a still image using a convolutional neural network.

畳み込みニューラルネットワークはニューラルネットワークの考え方に基づいて画像の分類を行う技術である。畳み込みニューラルネットワークにおいて、画像はクラスと呼ばれる単位で分類される。例えば、りんごの画像とみかんの画像を分類することができる畳み込みニューラルネットワークは、りんごクラスとみかんクラスの2種類のクラスを有するネットワークであると言える。畳み込みニューラルネットワークを用いる際は、前もって製品の開発製造段階において、分類させたいクラスごとに教師画像と呼ばれる正解画像群を準備し、正解画像群を畳み込みニューラルネットワークの学習機能に入力することで、畳み込みニューラルネットワークが内部に保持するニューラルネットワークの繋がりに正解画像群を学習させ、学習の結果を畳み込みニューラルネットワークのパラメータとして設定する。これによって畳み込みニューラルネットワークは、以降、目的画像を畳み込みニューラルネットワークの判定機能に入力することで、目的画像を予め学習させたクラスに分類した結果を返すことができる。この際、畳み込みニューラルネットワークは、例えば「りんごである確信度が80%、かつ、みかんである確信度が20%」のように、目的画像がそれぞれのクラスである確信度の並びとして結果を返すことができる。畳み込みニューラルネットワークの利点は、対象とする画像を判定する際に画像の特徴などを人間が予め考慮する必要がなく、大量の正解画像群を事前すなわち製品の開発製造段階で学習させておくだけで、目的画像の判定が高い精度で可能になるという点にある。この利点のため畳み込みニューラルネットワークは広く用いられており、利用可能な多数のオープンソースのライブラリが入手可能であり、畳み込みニューラルネットワークは容易に利用できる。本装置は、畳み込みニューラルネットワーク121,123にオープンソースのライブラリを用いることで、学習機能及び判定機能を実現する。   The convolutional neural network is a technique for classifying images based on the concept of neural networks. In a convolutional neural network, images are classified in units called classes. For example, a convolutional neural network capable of classifying apple images and mandarin orange images can be said to be a network having two classes, an apple class and a mandarin orange class. When using a convolutional neural network, at the product development and manufacturing stage, prepare correct answer images called teacher images for each class you want to classify, and input the correct answer images to the learning function of the convolutional neural network. A group of correct images is trained on the connection of the neural networks held inside the neural network, and the learning result is set as a parameter of the convolutional neural network. Thereby, the convolutional neural network can return the result of classifying the target image into the class learned in advance by inputting the target image to the determination function of the convolutional neural network. At this time, the convolutional neural network returns the result as a sequence of certainty factors in which the target image is each class, such as "80% certainty factor that is an apple and 20% certainty factor that is a mandarin orange". be able to. The advantage of the convolutional neural network is that it is not necessary for humans to consider the characteristics of the image in advance when determining the target image, and a large amount of correct image groups can be learned in advance, that is, at the product development and manufacturing stage. The point is that the target image can be determined with high accuracy. Because of this advantage, convolutional neural networks are widely used, there are many open source libraries available, and convolutional neural networks are readily available. This device realizes a learning function and a judgment function by using an open source library for the convolutional neural networks 121 and 123.

図3Aおよび図3Bは形状推定部112にて用いられる畳み込みニューラルネットワーク121が分類するクラスの例を示す図である。   3A and 3B are diagrams showing examples of classes classified by the convolutional neural network 121 used in the shape estimation unit 112.

本実施の形態においては、事前すなわち本装置の開発製造段階で図3Aおよび図3Bに示すクラスごとに正解画像群を用意し、形状推定部112が用いる畳み込みニューラルネットワーク121の学習機能に正解画像群を入力し、学習の結果を畳み込みニューラルネットワーク121のパラメータ122として設定する。本装置の運用時には畳み込みニューラルネットワーク121の判定機能に目的画像を入力し、目的画像に路面標示が写り込んでいるか否かを区分するとともに、写り込んだ路面標示の種別を区分する。   In the present embodiment, a correct image group is prepared for each class shown in FIGS. 3A and 3B in advance, that is, in the development and manufacturing stage of the present device, and the correct image group is used for the learning function of the convolutional neural network 121 used by the shape estimation unit 112. Is input and the learning result is set as the parameter 122 of the convolutional neural network 121. When the apparatus is in operation, a target image is input to the determination function of the convolutional neural network 121 to determine whether or not the road marking is reflected in the target image, and to classify the reflected road marking type.

路面標示は、道路標示、区画線、及び法定外表示を含む。また、路面標示には複数の種別がある。点検主体が道路管理者であるか又は都道府県公安委員会であるかによって、点検対象とする路面標示の種別が異なる。   Road markings include road markings, lane markings, and non-statutory markings. Further, there are a plurality of types of road markings. The type of road marking to be inspected differs depending on whether the inspection body is a road administrator or a prefectural public safety commission.

本実施の形態においては、図3Aに示した9種類の路面標示のクラスと図3Bに示した3種類の路面標示以外の物体のクラスを畳み込みニューラルネットワーク121が分類するクラスに含める。具体的には、図3Aに示す、横断歩道予告311、停止線312、横断歩道313、追い越しのための右側部分はみ出し通行禁止314、止まれ文字315、車道外側線316、T型交差点クロスマーク317、十型交差点クロスマーク318、及び路面標示が写りこんでいない路面320と、図3Bに示す壁面331、車体332、及び歩道333を畳み込みニューラルネットワーク121が分類するクラスに含める。したがって、畳み込みニューラルネットワーク121は計12種類のクラスを有する。分類するクラスの数は任意に設定してもよい。なお、路面標示が写りこんでいない路面320は、路面標示の有無を判断するためのクラスである。壁面331、車体332、歩道333の3種類のクラスは、路面標示以外の物体の写り込みを区分したクラスである。   In the present embodiment, the nine types of road marking classes shown in FIG. 3A and the classes of objects other than the three types of road marking shown in FIG. 3B are included in the classes classified by the convolutional neural network 121. Specifically, as shown in FIG. 3A, a pedestrian crossing notice 311, a stop line 312, a pedestrian crossing 313, a right-hand side portion forbidden to pass, 314, a stop character 315, a road outside line 316, a T-shaped intersection cross mark 317, The type 10 intersection cross mark 318, the road surface 320 not showing the road marking, the wall surface 331, the vehicle body 332, and the sidewalk 333 shown in FIG. 3B are included in the class classified by the convolutional neural network 121. Therefore, the convolutional neural network 121 has a total of 12 classes. The number of classes to be classified may be set arbitrarily. The road surface 320 in which the road marking is not reflected is a class for determining the presence or absence of the road marking. The three types of classes of the wall surface 331, the vehicle body 332, and the sidewalk 333 are classes in which the reflection of objects other than the road marking is classified.

学習機能に入力する正解画像群を準備するときは、分類対象が写り込んだ静止画群を用意し、静止画群のうち各クラスの分類対象が写り込んだ部分を市販の画像処理ソフトで切り出して正解画像とする。この作業は、本装置の開発製造段階において、人間が製造作業の一環として実施するものである。本実施の形態においては、正解画像用に道路を撮影した静止画群を用意し、静止画群のうち分類対象が写り込んだ部分を市販の画像処理ソフトで切り出す。各クラスに少なくとも正解画像を1000枚以上用いる。学習に用いる正解画像は、矩形であれば正方形であっても長方形であってもよい。例えば、停止線312はその形状に合わせて横長の長方形の画像を用意しても良い。   When preparing the correct answer image group to be input to the learning function, prepare a still image group in which the classification target is reflected, and cut out the portion of the still image group in which the classification target of each class is reflected using commercially available image processing software. The correct answer image. This work is performed by a person as part of the manufacturing work at the development and manufacturing stage of this device. In the present embodiment, a still image group in which a road is photographed is prepared for a correct image, and a portion of the still image group in which a classification target is reflected is cut out with commercially available image processing software. At least 1000 correct images are used for each class. The correct image used for learning may be square or rectangular as long as it is rectangular. For example, the stop line 312 may be prepared as a horizontally long rectangular image according to its shape.

検出対象とする路面標示のクラス以外のクラスについては、正解画像の枚数の確保が困難な場合、複数のクラスをまとめて一つのクラスとすることもできる。例えば、T型交差点クロスマーク317と十型交差点クロスマーク318が検出対象外の路面標示の場合、T型交差点クロスマーク317と十型交差点クロスマーク318をまとめて、一つの交差点クロスマークのクラスとしてもよいし、路面標示以外の物体のクラスである壁面331、車体332、歩道333をまとめて、物体の写り込みのクラスとしてもよい。   For classes other than the road marking class to be detected, if it is difficult to secure the number of correct images, a plurality of classes may be combined into one class. For example, when the T-type intersection cross mark 317 and the 10-type intersection cross mark 318 are road markings that are not the detection targets, the T-type intersection cross mark 317 and the 10-type intersection cross mark 318 are combined into one intersection cross mark class. Alternatively, the wall surface 331, the vehicle body 332, and the sidewalk 333, which are the classes of objects other than the road marking, may be combined and used as the class of the reflection of the object.

濃淡推定部113は、静止画に写った路面標示の掠れ度合いを分類する。本実施の形態では、濃淡推定部113は、畳み込みニューラルネットワークを用いて静止画に写った路面標示の掠れ度合いを分類する。掠れ度合いとは、路面標示の磨耗、剥離、劣化による塗膜の不鮮明さ及び欠損の程度を指す。   The gradation estimation unit 113 classifies the blurring degree of the road markings reflected in the still image. In the present embodiment, the density estimation unit 113 classifies the blurring degree of the road markings reflected in the still image using a convolutional neural network. The degree of blurring refers to the degree of unclearness and loss of the coating film due to wear, peeling and deterioration of road markings.

図4は濃淡推定部113にて用いられる畳み込みニューラルネットワーク123が分類するクラスの例を示す図である。本実施の形態においては、事前すなわち本装置の開発製造段階で図4に示すクラスごとに正解画像群を用意し、濃淡推定部113が用いる畳み込みニューラルネットワーク123の学習機能に正解画像群を入力し、学習の結果を畳み込みニューラルネットワーク123のパラメータ124として設定する。本装置の運用時には畳み込みニューラルネットワーク123の判定機能に目的画像を入力し、写り込んだ路面標示の掠れ度合いを分類する。   FIG. 4 is a diagram showing an example of classes classified by the convolutional neural network 123 used in the density estimation unit 113. In the present embodiment, a correct image group is prepared for each class shown in FIG. 4 in advance, that is, at the development and manufacturing stage of this device, and the correct image group is input to the learning function of the convolutional neural network 123 used by the gray level estimating unit 113. , The learning result is set as the parameter 124 of the convolutional neural network 123. When the apparatus is in operation, the target image is input to the determination function of the convolutional neural network 123 to classify the blurring degree of the reflected road marking.

掠れ度合いを分類する段階の数は、点検主体の点検基準による。本実施の形態においては、掠れ度合いの分類をレベル1、レベル2、レベル3の3段階とするが、掠れ度合いの段階の数は任意に設定してもよい。例えば、路面標示ハンドブックに紹介されている目視評価ランクの数に合わせて5段階に分類してもよい(非特許文献1参照)。   The number of stages to classify the degree of blurring depends on the inspection criteria of the inspection body. In the present embodiment, the degree of blurring is classified into three levels of level 1, level 2 and level 3, but the number of levels of blurring degree may be set arbitrarily. For example, it may be classified into 5 levels according to the number of visual evaluation ranks introduced in the road marking handbook (see Non-Patent Document 1).

掠れ度合いの各レベルの定義は、点検主体の点検基準による。本実施の形態においては、レベル1は路面標示全体の形状を維持しており掠れにより不鮮明な箇所の面積が全体の30%未満を占める路面標示、レベル2は路面標示全体の形状は維持しているが掠れにより不鮮明な箇所の面積が全体の30%以上、60%未満を占める路面標示、レベル3は欠損により路面標示全体の形状を維持していない、又は掠れにより不鮮明な箇所の面積が全体の60%以上を占める路面標示とする。   The definition of each level of blurring depends on the inspection standard of the inspection body. In the present embodiment, level 1 maintains the shape of the whole road marking, and the area of the unclear spot due to blurring occupies less than 30% of the whole road marking, and level 2 maintains the shape of the entire road marking. There is road marking that occupies 30% or more and less than 60% of the entire road marking due to blurring. Level 3 does not maintain the overall shape of the road marking due to loss, or the area of the blurry area due to blurring is entirely. Road markings that account for 60% or more of

図4のクラス401〜403のそれぞれが掠れ度合いのレベル1〜3に対応する。路面標示が写り込んでいない路面及び物体の写り込みのクラス404を、路面441、壁面442、車体443、および歩道444の4種類で構成する。   Each of the classes 401 to 403 in FIG. 4 corresponds to blurring level 1 to 3. The class 404 of the road surface and the object in which the road marking is not reflected is composed of four types of a road surface 441, a wall surface 442, a vehicle body 443, and a sidewalk 444.

濃淡推定部113が用いる畳み込みニューラルネットワーク123は、掠れ度合いのレベル1、レベル2、レベル3の各クラス401〜403と、路面標示が写り込んでいない路面及び物体の写り込みのクラス404からなる4種類のクラスを事前に学習したパラメータ124を設定する。   The convolutional neural network 123 used by the density estimation unit 113 is composed of classes 401 to 403 of blurring level 1, level 2 and level 3 and a class 404 of a road surface and an object in which no road marking is shown. A parameter 124 in which a class of a type is learned in advance is set.

学習に用いる画像は、矩形であれば正方形であっても長方形であってもよい。また、各レベルの学習に用いる正解画像群は、単一の種別の路面標示で構成してもよいし、複数の種別の路面標示で構成してもよいし、畳み込みニューラルネットワーク121の学習に用いた正解画像を再利用してもよい。   The image used for learning may be square or rectangular as long as it is rectangular. Further, the correct image group used for learning at each level may be configured by a single type of road marking, or may be configured by a plurality of types of road marking, and may be used for learning the convolutional neural network 121. The correct answer image may be reused.

本実施の形態においては、畳み込みニューラルネットワーク121の学習に用いた正解画像を再利用する。具体的には、レベル1、レベル2、レベル3の3種類のクラスの正解画像については、路面標示であるクラス、すなわち横断歩道予告311、停止線312、横断歩道313、追い越しのための右側部分はみ出し通行禁止314、止まれ文字315、車道外側線316、T型交差点クロスマーク317、及び十型交差点クロスマーク318、の正解画像を掠れ度合いのレベルごとに分類して再利用する。路面標示が写り込んでいない路面及び物体の写り込みの正解画像については、路面標示が写りこんでいない路面320、壁面331、車体332、歩道333の正解画像をそのまま再利用する。なお、学習に用いる画像の枚数の目安は、使用するライブラリにより異なるが、本実施の形態においては、各クラスに少なくとも1000枚以上を用いる。   In the present embodiment, the correct image used for learning the convolutional neural network 121 is reused. Specifically, for the correct images of the three classes of level 1, level 2, and level 3, the class that is the road marking, that is, the pedestrian crossing notice 311, the stop line 312, the pedestrian crossing 313, the right side portion for overtaking Correct answer images of the sticking out prohibition 314, the stop character 315, the road outside line 316, the T-shaped intersection cross mark 317, and the ten-shaped intersection cross mark 318 are classified for each blurring level and reused. As for the correct answer image of the road surface and the object in which the road marking is not reflected, the correct answer images of the road surface 320, the wall surface 331, the vehicle body 332, and the sidewalk 333 in which the road marking is not reflected are reused as they are. The standard number of images used for learning varies depending on the library used, but in the present embodiment, at least 1000 or more images are used for each class.

撮影位置突合部114は、撮影動画を撮影した位置情報に基づいて静止画取得部111の取得した静止画の撮影地点を特定する。本実施の形態においては、市販GPSロガーを車両に搭載して走行しながら取得した位置情報のファイルをメモリカードなどの記憶媒体102に格納して、当該メモリカードを路面標示不具合検出装置100に装着して読み込ませる。なお、本装置は撮影位置の記録の方法には依らず、例えば撮影した静止画におけるExifに記録された撮影位置の情報を用いてもよい。撮影位置突合部114は、ネットワークを介して位置情報のファイルを取得してもよい。   The shooting position matching unit 114 specifies the shooting point of the still image acquired by the still image acquisition unit 111 based on the position information of the shooting moving image. In the present embodiment, a commercially available GPS logger is mounted on a vehicle, a file of position information acquired while traveling is stored in a storage medium 102 such as a memory card, and the memory card is attached to the road marking defect detection device 100. And read it. Note that the present apparatus may use, for example, the information of the shooting position recorded in Exif in the shot still image, regardless of the method of recording the shooting position. The shooting position matching unit 114 may acquire a file of position information via a network.

区画線評価部115は、連続する静止画を一定枚数単位でまとめた区間に対して、区画線の掠れ度合いを評価する。区画線評価部115が区間ごとに評価する区画線は、例えば、図3Aに示した追い越しのための右側部分はみ出し通行禁止314及び車道外側線316のクラスに分類される路面標示である。本実施の形態においては、連続する静止画を6枚単位でまとめる。静止画取得部111が3.3m間隔で静止画を取得したとすると、区画線評価部115は、区画線の掠れ度合いを約20mの区間ごとに評価することになる。なお、区間の長さ、静止画を取得する間隔、および区間として静止画をまとめる枚数は任意に設定してもよい。   The lane marking evaluation unit 115 evaluates the blurring degree of the lane markings for a section in which continuous still images are collected in units of a fixed number of sheets. The lane markings that the lane marking evaluating unit 115 evaluates for each section are, for example, road markings classified into classes of a right-hand side protruding prohibition 314 and a road outside line 316 shown in FIG. 3A. In the present embodiment, continuous still images are grouped in units of six. If the still image acquisition unit 111 acquires still images at intervals of 3.3 m, the marking line evaluation unit 115 will evaluate the degree of blurring of the marking lines for each section of about 20 m. The length of the section, the interval at which the still images are acquired, and the number of still images collected as the section may be set arbitrarily.

出力部116は、検出対象の路面標示を検出した静止画の識別子、当該路面標示の静止画中の位置、種別、及び掠れ度合いの情報を出力する。静止画の識別子として、静止画を取得した撮影動画のフレーム番号を用いてもよい。出力部116は、路面標示を検出した静止画の撮影位置の情報を出力してもよい。   The output unit 116 outputs the identifier of the still image in which the road marking to be detected is detected, the position of the road marking in the still image, the type, and the blurring degree information. The frame number of the captured moving image from which the still image is acquired may be used as the identifier of the still image. The output unit 116 may output information on the shooting position of the still image in which the road marking is detected.

また、出力部116は、区間ごとの区画線の掠れ度合いを出力する。   The output unit 116 also outputs the blurring degree of the lane markings for each section.

[路面標示画像処理装置の動作]
次に、本実施の形態における路面標示画像処理装置の動作について説明する。図5は、路面標示不具合検出装置100のメインルーチンのフローチャートである。
[Operation of road marking image processing device]
Next, the operation of the road marking image processing device according to the present embodiment will be described. FIG. 5 is a flowchart of the main routine of the road marking defect detection device 100.

まず、路面標示不具合検出装置100が処理を開始すると、静止画取得部111が、記憶媒体101から撮影動画のファイルを読み取って、一定間隔ごとに静止画を取り出し、取り出された静止画群を以降の手順へと送る(手順501)。GPSによって車両の緯度経度座標や移動速度を取得しておいて、例えば3.3mごとの一定距離間隔を進んだ位置に相当する静止画を抜き出して処理対象とする。   First, when the road marking defect detection apparatus 100 starts processing, the still image acquisition unit 111 reads a file of a captured moving image from the storage medium 101, extracts still images at regular intervals, and extracts the extracted still image group from now on. (Step 501). The latitude/longitude coordinates and the moving speed of the vehicle are acquired by the GPS, and a still image corresponding to a position advanced by a constant distance interval of 3.3 m is extracted and processed.

次に形状推定部112は、後述する形状推定サブルーチンの処理によって、静止画群の各静止画から路面標示が含まれる部分画像を抽出し、部分画像に含まれる路面標示の種別を分類する(手順502)。部分画像は、静止画の一部分を切り出した画像であり、路面標示の種別の分類および路面標示の濃淡の推定の処理単位である。静止画から複数の部分画像を抽出してもよい。   Next, the shape estimation unit 112 extracts a partial image including the road marking from each still image of the still image group by the processing of the shape estimation subroutine described later, and classifies the type of the road marking included in the partial image (procedure). 502). The partial image is an image obtained by cutting out a part of the still image, and is a processing unit for classifying the types of road markings and estimating the shading of the road markings. A plurality of partial images may be extracted from the still image.

次に濃淡推定部113が、後述する濃淡推定サブルーチンの処理によって、部分画像に含まれる路面標示の掠れ度合いを分類する(手順503)。   Next, the density estimation unit 113 classifies the blurring degree of the road marking included in the partial image by the processing of a density estimation subroutine described later (step 503).

次に撮影位置突合部114が、記憶媒体102から位置情報ファイルを読み取って、静止画群の各静止画の撮影地点を特定する(手順504)。静止画の撮影地点を特定する際、例えば動画から取り出された静止画に相当するフレームが撮影された時刻を取得し、位置情報が記録された時刻と突合することで撮影地点を特定してもよいし、さらに両時刻が一致しない場合は前後の位置情報を用いて線形補間等の数値計算を行って推定してもよい。あるいは記憶媒体101に記録されているデータが動画ではなく静止画の場合は、静止画のExifに記録された位置情報を用いてもよい。   Next, the shooting position matching unit 114 reads the position information file from the storage medium 102 and specifies the shooting point of each still image in the still image group (step 504). When specifying the shooting point of a still image, for example, even when the shooting point is specified by acquiring the time when the frame corresponding to the still image extracted from the moving image was acquired and collating with the time when the position information was recorded. Alternatively, if the two times do not match, the position information before and after may be used for the estimation by performing a numerical calculation such as linear interpolation. Alternatively, if the data recorded in the storage medium 101 is not a moving image but a still image, the position information recorded in the Exif of the still image may be used.

次に区画線評価部115が、後述する区画線評価サブルーチンの処理によって、静止画群を一定区間ごとに分け、区間ごとに区画線の掠れ度合いを評価する(手順505)。   Next, the lane marking evaluation unit 115 divides the still image group into fixed sections by the processing of a lane marking evaluation subroutine described later, and evaluates the degree of blurring of the lane markings for each section (procedure 505).

次に出力部116が、後述する結果出力サブルーチンの処理によって、静止画群について、各静止画に写り込んだ検出対象の路面標示の静止画中の位置、種別、掠れ度合いの情報を出力する(手順506)。出力部116は、区画線については、区間ごとに評価を出力する。   Next, the output unit 116 outputs the information of the position, type, and blurring degree in the still image of the road marking of the detection target reflected in each still image by the processing of the result output subroutine described later ( Step 506). The output unit 116 outputs the evaluation for each section for the lane markings.

以上の処理により、道路を撮影した静止画又は撮影動画から検出対象の路面標示の有無、静止画中の位置、種別、掠れ度合いの情報を得ることができる。区画線については、区間ごとの掠れ度合いの情報を得ることができる。   Through the above processing, it is possible to obtain information about the presence or absence of the road marking to be detected, the position in the still image, the type, and the degree of blurring from the still image or moving image of the road. Regarding the lane markings, it is possible to obtain information on the degree of blurring for each section.

(形状推定処理)
図6は、形状推定サブルーチンのフローチャートである。
(Shape estimation process)
FIG. 6 is a flowchart of the shape estimation subroutine.

形状推定サブルーチンが呼び出されると、形状推定部112は、処理対象の静止画を矩形で分割し、分割して得られた静止画の各部分(部分画像)のうち、後述する条件に合致した部分画像からなる部分画像群を以降の手順へと送る(手順601)。   When the shape estimation subroutine is called, the shape estimation unit 112 divides the still image to be processed into rectangles, and among the respective portions (partial images) of the still image obtained by the division, the portions that meet the conditions described later. The partial image group consisting of images is sent to the subsequent procedure (procedure 601).

図7は撮影画像201から部分画像を得る例を示す図である。矩形701は高さ800ピクセル、幅800ピクセルの正方形の矩形であり、処理後画像は撮影画像201と矩形の左上頂点を合わせるところから始めて、矩形を水平方向、鉛直方向に400ピクセルずつずらして隈なく分割したものである。撮影画像201中の2×2の矩形で表される各部分が部分画像である。   FIG. 7 is a diagram showing an example of obtaining a partial image from the captured image 201. A rectangle 701 is a square rectangle having a height of 800 pixels and a width of 800 pixels, and the processed image starts from the point where the upper left apex of the rectangle is aligned with the captured image 201, and the rectangle is shifted by 400 pixels in the horizontal direction and 400 pixels in the vertical direction. It is divided without. Each part represented by a 2×2 rectangle in the captured image 201 is a partial image.

なお、部分画像の大きさは任意であるが、静止画に写りこむ路面標示の大きさを鑑みて、路面標示の大部分が部分画像内に収まるような大きさを確保し、かつ路面標示の近傍にあるその他の路面標示や物体が極力入り込まないような大きさに留めることは、道路の静止画に対する路面標示及び物体の写り込みの性質から見て合理的である。また、部分画像の各辺は本実施例のように固定長にしてもよいし、幅と高さの異なる複数種類の部分画像を用いてもよい。例えば、遠近法を考慮し、静止画の上方、すなわち道路の奥に向かうにつれ部分画像を小さくしてもよい。   It should be noted that the size of the partial image is arbitrary, but in view of the size of the road marking reflected in the still image, a size is ensured so that most of the road marking fits within the partial image, and It is rational to keep the size of other road markings and objects in the vicinity so that they do not enter as much as possible in view of the nature of the road markings and objects reflected on the still image of the road. Further, each side of the partial image may have a fixed length as in the present embodiment, or a plurality of types of partial images having different widths and heights may be used. For example, considering the perspective method, the partial image may be made smaller toward the upper side of the still image, that is, toward the back of the road.

静止画全体を分割して部分画像を取得するため、静止画の上部の部分画像には路面を含んでいない領域、又は遠近法により路面標示が小さく写っている領域等が含まれる。このような領域を含む部分画像は、路面標示が写っていないか、又は写っていたとしても形状や濃淡を推定する上で大きさが不十分である。特に後者の場合、誤った推定結果を出力する原因となり得るため、以降の手順に送ることは好ましくない。   Since the partial image is acquired by dividing the entire still image, the partial image in the upper part of the still image includes a region that does not include the road surface or a region in which the road marking is small due to the perspective method. The partial image including such an area does not have the road marking, or even if it does, the size of the partial image is insufficient for estimating the shape and shading. Particularly in the latter case, it may cause a wrong estimation result to be output, and it is not preferable to send it to the subsequent procedure.

本実施の形態においては、遠近法により静止画のうち下部の領域に道路の大半が写ることを鑑みて、静止画の下部の部分画像を以降の手順へ送る。具体的には、図7の撮影画像201の下部60%の領域702に全体が含まれる部分画像の集合を以降の手順へ送る。なお、処理対象とする部分画像の条件は上記に限定するものではなく、例えば、静止画の周囲を処理対象から外してもよいし、静止画の左右の端を処理対象から外してもよい。   In the present embodiment, considering that most of the road is captured in the lower area of the still image by the perspective method, the partial image of the lower portion of the still image is sent to the subsequent procedure. Specifically, the set of partial images that are wholly contained in the lower 60% area 702 of the captured image 201 in FIG. 7 is sent to the subsequent procedure. The conditions of the partial image to be processed are not limited to the above, and for example, the periphery of the still image may be excluded from the processing target, or the left and right edges of the still image may be excluded from the processing target.

部分画像を得る方法は上記の本実施例の方法を用いてもよいし、例えばSelective Searchのような既存の物体候補検出アルゴリズムを用いて抽出する方法でもよい。あるいは、Faster R-CNNにおけるRegion Proposal Network(RPN)のような既存のニューラルネットワークによる検出手法を用いてもよい。   As a method of obtaining the partial image, the method of the present embodiment described above may be used, or a method of extracting using a known object candidate detection algorithm such as Selective Search may be used. Alternatively, a detection method using an existing neural network such as Region Proposal Network (RPN) in Faster R-CNN may be used.

次に形状推定部112は、部分画像群を畳み込みニューラルネットワーク121の判定機能に入力し、各部分画像を図3Aおよび図3Bに示したいずれかのクラスに分類する(手順602)。以下、この分類結果を形状分類結果と呼ぶ。   Next, the shape estimation unit 112 inputs the partial image group to the determination function of the convolutional neural network 121, and classifies each partial image into one of the classes shown in FIGS. 3A and 3B (step 602). Hereinafter, this classification result will be referred to as a shape classification result.

次に形状推定部112は、部分画像群に含まれる各部分画像について、形状分類結果が路面標示であるかを判定する(手順603)。形状分類結果が路面標示である部分画像を以降の手順の処理対象とし(手順604)、形状分類結果が路面標示でない部分画像は以降の手順の処理対象としない(手順605)。つまり、図3Aに示したクラス(ただし、路面標示が写りこんでいない路面320は除く)に分類された部分画像のみを以降の手順の処理対象とする。手順603から手順605までの処理は、部分画像群に含まれる各部分画像について繰り返される。   Next, the shape estimation unit 112 determines, for each partial image included in the partial image group, whether the shape classification result is road marking (step 603). The partial image whose shape classification result is road marking is the processing target of the subsequent procedure (procedure 604), and the partial image whose shape classification result is not road marking is not the processing target of the subsequent procedure (procedure 605). That is, only the partial images classified into the class shown in FIG. 3A (excluding the road surface 320 on which the road marking is not reflected) are processed in the subsequent steps. The processing from step 603 to step 605 is repeated for each partial image included in the partial image group.

次に形状推定部112は、同一の路面標示が複数の部分画像にまたがっていた場合に複数の部分画像を1つの部分画像に結合し、結合前の複数の部分画像の代わりに結合した1つの部分画像を以降の手順へと送る(手順606)。同一とは、形状分類結果が同一のクラスであることを言う。またがるとは、2つの部分画像を任意に選んだ際、両部分画像が同一のクラスであり、かつ両部分画像を構成する辺の少なくとも1組以上が交差または重なっている状態を言う。1つの部分画像に結合するとは、複数の部分画像の全てを内部に含む最小の矩形による部分画像を得ることを言う。   Next, the shape estimation unit 112 combines a plurality of partial images into one partial image when the same road marking extends over a plurality of partial images, and combines the partial images in place of the plurality of partial images before the combination. The partial image is sent to the subsequent procedure (procedure 606). The same means that the shape classification results are in the same class. Spanning means a state in which, when two partial images are arbitrarily selected, both partial images are in the same class, and at least one set of sides forming both partial images intersect or overlap each other. Combining into one partial image means obtaining a partial image with the smallest rectangle that includes all of a plurality of partial images.

図8は同一の路面標示(横断歩道予告202)が複数の部分画像にまたがっている例を示す図である。   FIG. 8 is a diagram showing an example in which the same road marking (preliminary notice 202 of a pedestrian crossing) straddles a plurality of partial images.

図8(a)〜(d)の部分画像801〜804では、それぞれ同一の横断歩道予告202が検出されている。また各部分画像801〜804は互いにまたがる位置に存在している。したがって、形状推定部112は、部分画像801〜804を結合して、図9に示すような1つの部分画像901を得る。なお、撮影画像201は、横断歩道予告202以外に、車道外側線203と追い越しのための右側部分はみ出し通行禁止204の路面標示を含んでいる。これらの路面標示が複数の部分画像にまたがっている場合も同じく結合の対象となる。   In the partial images 801 to 804 of FIGS. 8A to 8D, the same pedestrian notice 202 is detected. Further, the partial images 801 to 804 are present at positions crossing each other. Therefore, the shape estimation unit 112 combines the partial images 801 to 804 to obtain one partial image 901 as shown in FIG. In addition to the pedestrian crossing notice 202, the photographed image 201 includes a roadway outside line 203 and a road surface marking of a right-hand side protruding forbidden 204 for overtaking. Even when these road markings extend over a plurality of partial images, they are likewise combined.

次に形状推定部112は、部分画像群と形状分類結果を出力して(手順607)、形状推定サブルーチンを終了する。   Next, the shape estimation unit 112 outputs the partial image group and the shape classification result (procedure 607), and ends the shape estimation subroutine.

(濃淡推定処理)
図10は、濃淡推定サブルーチンのフローチャートである。
(Tint estimation processing)
FIG. 10 is a flowchart of the gradation estimation subroutine.

濃淡推定サブルーチンが呼び出されると、濃淡推定部113は、形状推定部112の出力した部分画像群を畳み込みニューラルネットワーク123の判定機能に入力し、各部分画像を図4に記載のいずれかのクラスに分類する(手順1001)。具体的には、濃淡推定部113は、各部分画像を、掠れ度合いのレベル1〜3のクラスまたは路面標示が写り込んでいない路面及び物体の写り込みのクラスに分類する。本実施の形態においては、路面標示が写り込んでいない路面及び物体の写り込みのクラスの掠れ度合いはレベル0とする。つまり、濃淡推定部113は、各部分画像の掠れ度合いをレベル0〜3の4段階に分類する。   When the density estimation sub-routine is called, the density estimation unit 113 inputs the partial image group output by the shape estimation unit 112 to the determination function of the convolutional neural network 123, and assigns each partial image to one of the classes shown in FIG. Classify (procedure 1001). Specifically, the grayscale estimation unit 113 classifies each partial image into a class of blurring levels 1 to 3 or a class of a road surface and an object in which the road marking is not reflected. In the present embodiment, the blurring level of the class of the road surface and the object in which the road marking is not reflected is set to level 0. That is, the gradation estimation unit 113 classifies the blurring degree of each partial image into four levels of levels 0 to 3.

濃淡推定部113は、部分画像ごとに、分類結果である濃淡分類結果を出力し(手順1002)、濃淡推定サブルーチンを終了する。各部分画像の濃淡分類結果は、レベル0〜3のそれぞれについて確信度を含む。確信度は部分画像の掠れ度合いがそのレベルである可能性の高さを示す0以上1以下の数値である。各レベル0〜3の確信度を合計すると1となる。例えば、ある部分画像について、レベル0の確信度が0、レベル1の確信度が0.1、レベル2の確信度が0.7、レベル3の確信度が0.2だとすると、その部分画像の掠れ度合いはレベル2である可能性が高い。   The gradation estimation unit 113 outputs a gradation classification result which is a classification result for each partial image (procedure 1002), and ends the gradation estimation subroutine. The grayscale classification result of each partial image includes a certainty factor for each of levels 0 to 3. The certainty factor is a numerical value of 0 or more and 1 or less indicating the possibility that the blurring degree of the partial image is at that level. The sum of the certainty factors of each level 0 to 3 is 1. For example, if a certain partial image has a level 0 certainty factor of 0, a level 1 certainty factor of 0.1, a level 2 certainty factor of 0.7, and a level 3 certainty factor of 0.2, the partial image The degree of blurring is likely to be level 2.

(区画線評価処理)
図11は、区画線評価サブルーチンのフローチャートである。
(Parcel line evaluation process)
FIG. 11 is a flowchart of the lane marking evaluation subroutine.

区画線評価サブルーチンが呼び出されると、区画線評価部115は、連続する静止画を一定枚数単位でまとめた区間ごとに、区間内の静止画で区画線が検出された部分画像の形状分類結果と濃淡分類結果を以降の手順へと送る(手順1101)。本実施の形態においては、連続する静止画6枚で区間を構成し、6枚の静止画内で区画線が検出された部分画像の形状分類結果と濃淡分類結果を以降の手順へと送る。以降の手順は、処理対象の区間ごとに行われる。   When the lane marking evaluation subroutine is called, the lane marking evaluation unit 115, for each section in which continuous still images are collected in units of a fixed number of sheets, the shape classification result of the partial image in which the lane marking is detected in the still images in the section. The grayscale classification result is sent to the subsequent steps (step 1101). In the present embodiment, a section is composed of 6 continuous still images, and the shape classification result and the gradation classification result of the partial image in which the lane markings are detected in the 6 still images are sent to the subsequent procedure. The subsequent procedure is performed for each section to be processed.

次に区画線評価部115は、区間内の静止画のいずれかにおいて区画線が検出されたか否か判定する(手順1102)。具体的には、区画線評価部115は、処理対象の区間内の静止画に、形状分類結果が追い越しのための右側部分はみ出し通行禁止314または車道外側線316の部分画像が存在するか否か判定する。   Next, the marking line evaluation unit 115 determines whether a marking line is detected in any of the still images in the section (step 1102). Specifically, the lane marking evaluation unit 115 determines whether or not a still image in the processing target section includes a right-side protruding portion prohibition 314 or a partial image of the road outside line 316 for passing the shape classification result. judge.

区間内の静止画に形状分類結果が区画線の部分画像が存在しない場合、区画線評価部115は、その区間には区画線が存在しないと判定する(手順1103)。区画線評価部115は、次に処理する区間が存在する場合、次の区間を処理対象として手順1101からの処理を繰り返す(手順1107)。   When there is no partial image of which the shape classification result is the lane marking in the still image in the section, the lane marking evaluating unit 115 determines that there is no lane marking in the section (step 1103). If there is a section to be processed next, the lane marking evaluation unit 115 repeats the processing from step 1101 with the next section as the processing target (step 1107).

区間内の静止画に形状分類結果が区画線の部分画像が存在する場合、区画線評価部115は、部分画像の濃淡分類結果に基づいて部分画像のスコアを計算する(手順1104)。具体的には、区画線評価部115は、次式(1)を用い、濃淡分類結果の各レベル1〜3の確信度confidencem(m=1〜3)で期待値を計算し、部分画像のスコアscoresubframeを計算する。 When the still image in the section includes a partial image whose shape classification result is the lane marking, the lane marking evaluation unit 115 calculates the score of the partial image based on the gray scale classification result of the partial image (step 1104). Specifically, the lane marking evaluation unit 115 uses the following equation (1) to calculate an expected value at the confidence levels confidence m (m=1 to 3) of levels 1 to 3 of the grayscale classification result, and the partial image Compute the score score subframe of.

Figure 0006698191
Figure 0006698191

レベル0の確信度が最も大きい部分画像は形状推定部112の誤りであるとみなし、部分画像のスコアの計算対象としない。また、部分画像のスコアの計算には、レベル0の確信度を除いたレベル1〜3の確信度を使用する。濃淡推定部113は、部分画像の濃淡を推定する際、路面標示が存在しないレベル0と路面標示が掠れて見えづらいレベル3とを迷うことがある。この場合に、レベル0を部分画像のスコアの計算に含めると、本来はレベル3に近いスコアとなるべき部分画像のスコアが過小評価されてしまう。そこで、区画線評価部115は、レベル0の確信度を除いたレベル1〜3の確信度を用いて部分画像のスコアを計算する。   The partial image with the highest certainty factor of level 0 is regarded as an error in the shape estimation unit 112 and is not included in the score calculation of the partial image. In addition, the confidence levels of Levels 1 to 3 excluding the confidence level of Level 0 are used to calculate the score of the partial image. When estimating the shading of a partial image, the shading estimation unit 113 may be confused about Level 0 where there is no road marking and Level 3 where the road marking is blurred and difficult to see. In this case, if the level 0 is included in the calculation of the score of the partial image, the score of the partial image that should originally be close to the level 3 is underestimated. Therefore, the lane marking evaluation unit 115 calculates the score of the partial image using the certainty factors of levels 1 to 3 excluding the certainty factor of level 0.

図12A及び図12Bを参照し、部分画像のスコアの計算について具体例を用いて説明する。図12Aに示す部分画像の濃淡分類結果は、レベル0の確信度が0、レベル1の確信度が0.1、レベル2の確信度が0.7、レベル3の確信度が0.2である。レベル0の確信度を除いたレベル1〜3の数値を式(1)に代入すると、部分画像のスコア=(1×0.1+2×0.7+3×0.2)÷(0.1+0.7+0.2)=2.1となる。   Calculation of the score of the partial image will be described using a specific example with reference to FIGS. 12A and 12B. The grayscale classification result of the partial image shown in FIG. 12A shows that the confidence level at level 0 is 0, the confidence level at level 1 is 0.1, the confidence level at level 2 is 0.7, and the confidence level at level 3 is 0.2. is there. Substituting the numerical values of levels 1 to 3 excluding the certainty factor of level 0 into the equation (1), the score of the partial image=(1×0.1+2×0.7+3×0.2)÷(0.1+0.7+0 .2)=2.1.

図12Bに示す部分画像の濃淡分類結果は、レベル0の確信度が0.4、レベル1の確信度が0、レベル2の確信度が0、レベル3の確信度が0.6である。レベル0の確信度を除いたレベル1〜3の数値を式(1)に代入すると、部分画像のスコア=(1×0+2×0+3×0.6)÷(0+0+0.6)=3となる。図12Bに示すように、濃淡推定部113がレベル0かレベル3で迷うケースであっても、部分画像のスコアはより適切に3と評価される。   The grayscale classification result of the partial image shown in FIG. 12B has a level 0 certainty factor of 0.4, a level 1 certainty factor 0, a level 2 certainty factor 0, and a level 3 certainty factor 0.6. Substituting the numerical values of levels 1 to 3 excluding the certainty factor of level 0 into the equation (1), the partial image score=(1×0+2×0+3×0.6)÷(0+0+0.6)=3. As shown in FIG. 12B, the score of the partial image is evaluated as 3 more appropriately even in the case where the shade estimation unit 113 gets lost at level 0 or level 3.

なお、部分画像が複数の部分画像を結合して1つの部分画像としたものである場合、結合前の部分画像のそれぞれについて濃淡分類結果を求めておき、結合前の部分画像のそれぞれについて式(1)でスコアを求め、求めたスコアの平均を計算して結合後の部分画像のスコアとしてもよい。   When a partial image is a combination of a plurality of partial images into one partial image, a gray level classification result is obtained for each of the partial images before combination, and an expression ( The score may be obtained in 1), and the average of the obtained scores may be calculated as the score of the combined partial images.

次に区画線評価部115は、部分画像のスコアに基づいて静止画のスコアを計算する(手順1105)。本実施の形態においては、静止画内の区画線の掠れ度合いが高くなるほど高い重み付けで静止画を評価し、静止画のスコアを計算する。具体的には、区画線評価部115は、次式(2)を用い、1つの静止画内の部分画像のスコアscoresubframekを指数γで冪乗して重み付けをしたものの平均を取って静止画のスコアscoreframeを計算する。 Next, the lane marking evaluation unit 115 calculates the score of the still image based on the score of the partial image (step 1105). In the present embodiment, the higher the degree of blurring of the division line in the still image, the higher the weight of the still image is evaluated, and the still image score is calculated. Specifically, the lane marking evaluation unit 115 uses the following equation (2) to power the score sub- framek of the partial images in one still image to the power of the index γ and weights the average to obtain the still image. Calculate the score frame of.

Figure 0006698191
Figure 0006698191

ここで、Kは静止画内で同一と推定される区画線が検出された部分画像の数である。同一と推定される区画線とは、静止画上での区画線の検出位置に基づいて同一と考えうる区画線である。例えば、静止画上で道路延長に沿った位置で複数の部分画像として検出された区画線は同一と推定できる。静止画上で道路延長に沿わずに左右に離れた位置で複数の部分画像として検出された区画線は、互いに異なる区画線であると推定できる。K=0の静止画つまり区画線が検出されていない静止画については、静止画のスコアscoreframe=1とする。つまり、1≦scoreframe≦3γとなる。 Here, K is the number of partial images in which the lane markings estimated to be the same in the still image are detected. The lane markings estimated to be the same are lane markings that can be considered to be the same based on the detected position of the lane markings on the still image. For example, the lane markings detected as a plurality of partial images at positions along the road extension on the still image can be estimated to be the same. It is possible to presume that the lane markings detected as a plurality of partial images at positions apart from each other on the left and right of the still image without following the road extension are lane markings different from each other. For a still image with K=0, that is, a still image in which no dividing line is detected, the score of the still image is score frame =1. That is, 1≦score frame ≦3 γ .

上記示した計算方法の利点について述べる。例えば、図13に示すように、1つの区画線が複数の部分画像1301,1302として検出され、部分画像のスコアがそれぞれ3と1であったと仮定する。この場合、部分画像のスコアを単純に平均して静止画のスコアを求めると、静止画のスコアが2となってしまうので、レベル3と評価されるべき掠れ度合いの高い区画線のレベルを低く評価してしまうという問題が生じる。   The advantages of the above calculation method will be described. For example, as shown in FIG. 13, it is assumed that one division line is detected as a plurality of partial images 1301 and 1302, and the scores of the partial images are 3 and 1, respectively. In this case, if the score of the still image is obtained by simply averaging the scores of the partial images, the score of the still image becomes 2. Therefore, the level of the lane line with a high degree of blurring to be evaluated as level 3 is lowered. There is a problem of evaluation.

そこで、本実施の形態においては、部分画像内の区画線の掠れ度合いに応じた重み付けを行って部分画像のスコアを計算した後に、部分画像のスコアを集計して静止画のスコアを計算することとした。具体的には、部分画像のスコアを指数γで冪乗してスケールを変換することで、図14のグラフに示すように、部分画像の区画線の掠れ度合いが高くなるほど部分画像のスコアが指数関数的に高くなるように部分画像のスコアを重み付けた。指数γの値は任意であるが、本実施の形態では指数γ=log60/log3とした。なお、重み付けの方法は上記に限るものではない。区画線の掠れ度合いが高くなるほど高く重み付けできればよい。   Therefore, in the present embodiment, after calculating the score of the partial image by performing weighting according to the blurring degree of the division line in the partial image, the score of the partial image is aggregated to calculate the score of the still image. And Specifically, the score of the partial image is raised to the power of the index γ to convert the scale so that the score of the partial image increases as the degree of blurring of the dividing line of the partial image increases, as shown in the graph of FIG. The score of the partial image was weighted so as to be functionally high. The value of the index γ is arbitrary, but in the present embodiment, the index γ=log60/log3. The weighting method is not limited to the above. It suffices that the higher the degree of blurring of the marking line, the higher the weighting.

区画線評価部115は、手順1104及び手順1105の処理を区間内の各静止画について繰り返し、区間内の各静止画について、区画線の掠れ度合いに基づく静止画のスコアを算出する。   The lane marking evaluation unit 115 repeats the processing of steps 1104 and 1105 for each still image in the section, and calculates a still image score based on the blurring degree of the lane marking for each still image in the section.

なお、静止画内に異なる区画線が写っている場合は、区画線ごとに静止画のスコアを計算する。例えば、図2の撮影画像201には、車道外側線203と追い越しのための右側部分はみ出し通行禁止204が写っている。撮影画像201を含む区間については、車道外側線203を検出した部分画像に基づく静止画のスコアと、追い越しのための右側部分はみ出し通行禁止204を検出した部分画像に基づく静止画のスコアが求められる。以下の手順1106では、車道外側線203の掠れ度合いと追い越しのための右側部分はみ出し通行禁止204の掠れ度合いが求められる。   If different lane markings appear in the still image, the score of the still image is calculated for each lane marking. For example, in the photographed image 201 of FIG. 2, the outside line 203 of the roadway and the right-hand side protruding portion 204 for overtaking are shown. For a section including the photographed image 201, a still image score based on the partial image in which the outside road 203 is detected and a still image score based on the partial image in which the right-side protruding portion 204 for overtaking is detected are obtained. .. In the following procedure 1106, the degree of blurring of the road outside line 203 and the degree of blurring of the right-hand side protruding prohibition 204 for overtaking are obtained.

次に区画線評価部115は、区間内の静止画のスコアを集計し、集計結果に基づいて区間内の区画線の掠れ度合いを求める(手順1106)。具体的には、区画線評価部115は、次式(3)を用い、区間内の静止画のスコアscoreframeの平均に基づいて区間のスコアscoresectionを計算する。 Next, the lane marking evaluation unit 115 totals the scores of the still images in the section, and obtains the blurring degree of the lane markings in the section based on the totalized result (step 1106). Specifically, the lane marking evaluation unit 115 uses the following expression (3) to calculate the score score section of the section based on the average of the score score frames of the still images in the section .

Figure 0006698191
Figure 0006698191

ここで、Nは区間内の静止画の数である。constは1<const≦3γの範囲で任意の定数である。本実施の形態では、const=2.5γとする。なお、静止画のスコアscoreframeの平均値の代わりに合計値を用いても同様に区間のスコアscoresectionを計算できる。 Here, N is the number of still images in the section. const is an arbitrary constant in the range of 1 <const ≦ 3 γ. In this embodiment, const=2.5 γ . The score score section of the section can be calculated in the same manner by using the total value instead of the average value of the score frame of the still image.

なお、本実施の形態においては、手順1105においてスコアをγ乗してから平均値を求め、その結果を逆演算して元のスケールに戻す演算を行うことなく、次の手順1106で用いることによって、区間内の静止画のスコアを集計して区間内の区画線の掠れ度合いを求める際に掠れ度合いが高くなるほど高い重み付けで評価して集計結果を求めることとした。本発明はこれに限るものではなく、例えば手順1105において得られた平均値を1/γ乗して元のスケールに戻し、次に手順1106において改めてγ乗してから集計するなどの処理としてもよいし、あるいは、手順1106において別の定数γ’を用いたり別のスケール変換関数を用いて演算してもよい。   In the present embodiment, in step 1105, the score is multiplied by γ, then the average value is obtained, and the result is inversely calculated and used in the next step 1106 without performing calculation to restore the original scale. , When the scores of still images in a section are totaled to determine the degree of blurring of lane markings in the section, the higher the degree of blurring, the higher the weighted evaluation and the totaled result. The present invention is not limited to this. For example, the average value obtained in the step 1105 may be raised to the power of 1/γ to return to the original scale, and then in the step 1106, the value may be raised to the power γ again and then aggregated. Alternatively, in step 1106, another constant γ′ may be used or another scale conversion function may be used for the calculation.

式(3)は、次式(4)を満たすとき、区間のスコアscoresection=1となり、次式(5)を満たすとき、区間のスコアscoresection=3となる計算式である。 Expression (3) is a calculation expression in which the section score score section =1 when the following expression (4) is satisfied, and the section score score section =3 when the following expression (5) is satisfied.

Figure 0006698191
Figure 0006698191

Figure 0006698191
Figure 0006698191

図15に、式(3)で得られる区間内の静止画のスコアの平均値を区間のレベルに変換するグラフを示す。式(3)のconstの値を変化させると、区間のレベルが3になるときの区間内の静止画のスコアの平均値、つまり図15のグラフの傾きが変化する。なお、本実施の形態においては、図15のグラフにおいてグラフのおよそ左半分が傾き一定の直線となるような式(3)を用いた。本発明の範囲はこれに限るものではなく、グラフの左半分が指数関数あるいは高次関数などで規定される曲線となってもよい。あるいは、それらの直線ないし曲線の範囲が横軸の中央よりも左あるいは右に偏るようなグラフとなるような関数、すなわち、式(5)を満たす静止画のスコアの平均がより小さいもしくはより大きい値となるような式および定数を用いてもよい。   FIG. 15 shows a graph for converting the average value of the scores of still images in the section obtained by Expression (3) into the level of the section. When the value of const in Expression (3) is changed, the average value of the scores of the still images in the section when the level of the section becomes 3, that is, the slope of the graph in FIG. 15 changes. In the present embodiment, the equation (3) is used such that the left half of the graph in the graph of FIG. 15 is a straight line with a constant inclination. The scope of the present invention is not limited to this, and the left half of the graph may be a curve defined by an exponential function or a higher-order function. Alternatively, a function such that the range of those straight lines or curves is biased to the left or right of the center of the horizontal axis, that is, the average of the scores of still images satisfying the formula (5) is smaller or larger. You may use the formula and constant which take a value.

区画線評価部115は、区間のスコアを所定の段階に分けて区間のレベルを求める。本実施の形態においては、区間のスコアの範囲(1≦scoresection≦3)を3等分するように閾値(1.67と2.33)を定め、1≦scoresection≦1.67のときはレベル1、1.67<scoresection≦2.33のときはレベル2、2.33<scoresection≦3のときはレベル3とする。 The lane marking evaluation unit 115 divides the score of the section into predetermined stages to obtain the level of the section. In the present embodiment, the thresholds (1.67 and 2.33) are set so as to divide the range of the score of the section (1≦score section ≦3) into three equal parts, and when 1≦score section ≦1.67. and level 3 when the level 2,2.33 <score section ≦ 3 when the level 1,1.67 <score section ≦ 2.33.

なお、掠れ度合いが高く視認が困難な区画線が存在する区間をレベル3と評価しつつ、かつレベル2の区間を過大評価しないように、式(2)の指数γ、式(3)のconst、および上記の閾値を調整してもよい。例えば、本実施の形態では、区間内の6つの静止画のうち、2つの静止画で静止画のスコアscoreframe=3γとなる区画線を検出し、残りの4つの静止画では区画線が検出できなかった場合、区間のスコアscoresection≒2.34となり、その区間はレベル3と評価されるように前記の各種定数を定めてある。一方、6つの静止画の全てでレベル2の区画線が検出された場合、区間のスコアscoresection≒1.83となり、その区間はレベル2と適切に評価されるように前記の各種定数を定めてある。 It should be noted that, while evaluating the section in which there are lane markings with a high degree of blurring that are difficult to visually recognize as level 3, and not to overestimate the section of level 2, the index γ of expression (2) and the const of expression (3) , And the above threshold may be adjusted. For example, in the present embodiment, of the six still images in the section, two still images detect a lane marking with a score of the still image score frame = 3 γ, and the remaining four still images have lane markings. If it cannot be detected, the score of the section is score section ≈ 2.34, and the above-mentioned various constants are set so that the section is evaluated as level 3. On the other hand, when level 2 lane markings are detected in all six still images, the score of the section becomes score section ≈1.83, and the above-mentioned various constants are set so that the section is appropriately evaluated as level 2. There is.

指数γおよびconstの値、区間のスコアの閾値は、上記に限るものではなく、区間としてまとめる静止画の数などに応じて適宜変更可能である。   The values of the indexes γ and const and the threshold of the score of the section are not limited to the above, and can be appropriately changed according to the number of still images to be grouped as a section.

なお、区間のスコアを区間のレベルの段階に分けずに、区間のスコアをそのまま区間内の区画線の評価(掠れ度合い)としてもよい。   The score of the section may be used as it is as the evaluation (blindness) of the lane markings in the section without dividing the score of the section into stages of the level of the section.

次に区画線評価部115は、次の区間を処理対象として手順1101からの処理を繰り返す(手順1107)。   Next, the lane marking evaluation unit 115 repeats the processing from step 1101 for the next section as a processing target (step 1107).

区画線評価部115は、処理対象の区間がない場合、手順1106で求めた区間ごとの区画線の掠れ度合いを出力し、区画線評価サブルーチンを終了する。   When there is no processing target section, the lane marking evaluation unit 115 outputs the blurring degree of the lane marking for each section obtained in step 1106, and ends the lane marking evaluation subroutine.

(結果出力処理)
図16は、結果出力サブルーチンのフローチャートである。
(Result output process)
FIG. 16 is a flowchart of the result output subroutine.

結果出力サブルーチンが呼び出されると、出力部116は、部分画像群に含まれる各部分画像について、形状分類結果が検出対象の路面標示であるか(手順1601)、濃淡分類結果がレベル1ないし3であるかを判定する(手順1602)。出力部116は、形状分類結果が検出対象の路面標示であって、濃淡分類結果がレベル1ないし3である部分画像を以降の手順の処理対象とする (手順1603)。形状分類結果が検出対象の路面標示でない部分画像と濃淡分類結果が路面標示が写り込んでいない路面及び物体の写り込みの部分画像は以降の手順の処理対象としない(手順1604)。なお、区画線については、区間ごとに掠れ度合いを求めているので、形状分類結果が区画線の部分画像は以降の手順の処理対象としない。   When the result output subroutine is called, the output unit 116 determines whether the shape classification result is the road marking of the detection target (procedure 1601) for each partial image included in the partial image group (step 1601), and the gradation classification result is one of levels 1 to 3. It is determined whether there is any (step 1602). The output unit 116 sets a partial image whose shape classification result is a road marking to be detected and whose gray level classification results are levels 1 to 3 as a processing target of the subsequent procedure (step 1603). The partial image whose shape classification result is not the road marking of the detection target and the partial image of the road surface and the object which the gray level classification result does not include the road marking are not subjected to the processing in the following procedure (step 1604). As for the lane markings, the degree of blurring is obtained for each section, and therefore the partial image whose shape classification result is the lane markings is not the processing target of the following procedure.

このように、本装置は、形状推定の観点から部分画像が路面標示を含んでいるかを判定するのに加え、濃淡推定の観点から部分画像が路面標示を含んでいるかを陰に判定している。すなわち2つの異なる観点から路面標示を含んでいるかを判定している。これにより1つの観点だけで判定することによる特徴の見落としを減らし、確度の高い判定を実現している。   Thus, in addition to determining whether the partial image includes the road marking from the viewpoint of shape estimation, the device implicitly determines whether the partial image includes the road marking from the viewpoint of grayscale estimation. .. That is, it is determined whether the road marking is included from two different viewpoints. As a result, oversight of features due to the determination from only one viewpoint is reduced, and highly accurate determination is realized.

次に出力部116は、部分画像群に含まれる各部分画像について、属する静止画の識別子及び静止画中の位置及び種別及び掠れ度合いを出力する(手順1605)。種別とは形状分類結果のクラスのことであり、掠れ度合いとは濃淡分類結果のクラスのことである。また、部分画像の静止画中の位置とは、部分画像の占める領域を特定できる情報であればよく、例えば部分画像の左上頂点座標と幅と高さの情報でもよいし、部分画像の左上頂点座標と右下頂点座標の情報でもよい。また、静止画中の位置を出力するというのは、座標を数値として出力してもよいし、左上頂点と右下頂点を含む矩形の枠を描画した静止画又は動画を出力としてもよい。   Next, the output unit 116 outputs the identifier of the still image to which each partial image included in the partial image group belongs, the position and type in the still image, and the blurring degree (step 1605). The type is the class of the shape classification result, and the blurring degree is the class of the density classification result. Further, the position of the partial image in the still image may be any information as long as it can identify the area occupied by the partial image, for example, the coordinates of the upper left vertex of the partial image, the width and the height, or the upper left vertex of the partial image. Information on the coordinates and the coordinates of the lower right vertex may be used. Outputting the position in the still image may output the coordinates as numerical values, or may output the still image or the moving image in which a rectangular frame including the upper left vertex and the lower right vertex is drawn.

なお、出力部116は、前述の式(1)を用い、部分画像の濃淡分類結果の各レベル1〜3に確信度の重み付けを行って路面標示の掠れ度合いを評価して出力してもよい。   The output unit 116 may evaluate the blurring degree of the road marking by outputting the level 1 to 3 of the grayscale classification result of the partial image by using the above-described formula (1) to evaluate the blurring degree of the road marking. ..

次に出力部116は、区間ごとに、区画線評価サブルーチンで求めた区画線の掠れ度合いを出力する(手順1606)。例えば、出力部116は、区間に含まれる最初と最後の静止画の位置情報と区画線の種別及び区画線の掠れ度合いを出力する。区画線が検出された静止画中の位置を出力してもよい。   Next, the output unit 116 outputs the blurring degree of the lane markings obtained by the lane marking evaluation subroutine for each section (step 1606). For example, the output unit 116 outputs the position information of the first and last still images included in the section, the type of lane markings, and the blurring degree of the lane markings. You may output the position in the still image in which the lane marking was detected.

出力部116は、掠れ度合い等の情報を出力後、結果出力サブルーチンを終了する。   The output unit 116 ends the result output subroutine after outputting the information such as the blurring degree.

[出力結果を利用したアプリケーション例]
本実施の形態の路面標示不具合検出装置100においては、静止画に写り込んだ路面標示の静止画中の位置及び種別及び掠れ度合いを判定し出力する機能を提供した。上記示した手順を改良することで、路面標示の静止画中の位置だけでなく撮影位置についても出力し、例えばGeographic Information System(GIS)を用いた可視化装置にて結果を地図画面に出力させることも可能である。
[Application example using output results]
The road marking defect detection apparatus 100 according to the present embodiment is provided with the function of determining and outputting the position and type of the road marking reflected in the still image in the still image and the degree of blurring. By improving the procedure shown above, not only the position in the still image of the road marking but also the shooting position is output, and the result is output to the map screen with a visualization device using, for example, Geographic Information System (GIS). Is also possible.

例えば、図17は、路面標示不具合検出装置100の出力結果を利用したアプリケーションの画面の例を示す図である。同図に示すアプリケーション画面1700は、静止画領域1701、動画領域1702、地図領域1703、静止画情報領域1704、及び標示種別選択領域1705を備える。   For example, FIG. 17 is a diagram showing an example of a screen of an application using the output result of the road marking defect detection apparatus 100. The application screen 1700 shown in the figure includes a still image area 1701, a moving image area 1702, a map area 1703, a still image information area 1704, and a marking type selection area 1705.

静止画領域1701は、検出対象の路面標示が検出された静止画を表示する領域である。静止画に重ねて、路面標示を検出した部分画像1711,1712の位置が示される。   The still image area 1701 is an area for displaying a still image in which the road marking to be detected is detected. The positions of the partial images 1711 and 1712 in which the road markings have been detected are shown on the still image.

動画領域1702は、路面標示の検出に用いた動画を再生できる領域である。   The moving image area 1702 is an area in which the moving image used for detecting the road marking can be reproduced.

地図領域1703は、路面標示を検出した場所の地図を表示する領域である。地図に重ねて、動画撮影時のルート1730、及び路面標示を検出した静止画の撮影位置を示すマーカー1731〜1735が表示される。マーカー1731〜1735は、検出した路面標示の掠れ度合いが分かるように、掠れ度合いに応じた態様で表示される。例えば、掠れ度合いがレベル1は青色、レベル2は黄色、レベル3は赤色で表示する。マーカー1731〜1735のいずれかが選択されると、選択されたマーカー1731〜1735の位置で撮影された静止画が静止画領域1701に表示される。図17の例では、マーカー1732が選択されている。地図領域1703に表示される地図は、一般的な地図アプリケーションと同様に、拡大縮小、スクロールなどの操作が可能である。   The map area 1703 is an area for displaying a map of the place where the road marking is detected. A route 1730 at the time of shooting a moving image and markers 1731 to 1735 indicating the shooting position of the still image where the road marking is detected are displayed on the map. The markers 1731 to 1735 are displayed in a manner corresponding to the degree of blurring so that the degree of blurring of the detected road marking can be seen. For example, the blurring level is displayed in blue for level 1, yellow for level 2, and red for level 3. When any of the markers 1731 to 1735 is selected, the still image captured at the position of the selected marker 1731 to 1735 is displayed in the still image area 1701. In the example of FIG. 17, the marker 1732 is selected. The map displayed in the map area 1703 can be operated by enlarging/reducing, scrolling, etc., as in a general map application.

静止画情報領域1704には、路面標示を検出した静止画のファイル名が表示される。地図上にマーカー1731〜1735が表示されている静止画のファイル名だけを表示してもよい。ファイル名のいずれかが選択されると、選択されたファイル名の静止画が静止画領域1701に表示される。静止画情報領域1704には、ファイル名に加えて、検出した路面標示の種別、掠れ度合いなどを表示してもよい。   In the still image information area 1704, the file name of the still image in which the road marking is detected is displayed. You may display only the file name of the still image in which the markers 1731 to 1735 are displayed on the map. When any one of the file names is selected, the still image with the selected file name is displayed in the still image area 1701. In the still image information area 1704, in addition to the file name, the type of the detected road marking, the degree of blurring, etc. may be displayed.

標示種別選択領域1705は、地図領域1703および静止画情報領域1704に表示する情報の絞り込みに用いる。標示種別選択領域1705で選択された種別の路面標示が検出された静止画のマーカーおよびファイル名のみを地図領域1703および静止画情報領域1704で表示する。例えば、標示種別選択領域1705で横断歩道予告のチェックボックスのみがチェックされた場合は、横断歩道予告を検出できた静止画の撮影位置を示すマーカーとファイル名のみを表示する。標示種別選択領域1705において掠れ度合いを絞り込めるようにしてもよい。   The marking type selection area 1705 is used for narrowing down the information displayed in the map area 1703 and the still image information area 1704. Only the marker and file name of the still image in which the road marking of the type selected in the marking type selection area 1705 is detected are displayed in the map area 1703 and the still image information area 1704. For example, when only the pedestrian crossing notice check box is checked in the marking type selection area 1705, only the marker indicating the shooting position of the still image in which the pedestrian notice is detected and the file name are displayed. The blurring degree may be narrowed down in the marking type selection area 1705.

図18は、路面標示不具合検出装置100の区間に関する出力結果を利用したアプリケーションの画面の例を示す図である。同図に示すアプリケーション画面1800は、静止画領域1801、動画領域1802、地図領域1803、静止画情報領域1804、及び標示種別選択領域1805を備える。   FIG. 18 is a diagram showing an example of a screen of an application using the output result of the section of the road marking defect detection apparatus 100. The application screen 1800 shown in the figure includes a still image area 1801, a moving image area 1802, a map area 1803, a still image information area 1804, and a marking type selection area 1805.

静止画領域1801及び動画領域1802は、図17の静止画領域1701及び動画領域1702と同様である。   The still image area 1801 and the moving image area 1802 are the same as the still image area 1701 and the moving image area 1702 of FIG.

地図領域1803には、地図に重ねて、区画線が検出された区間1831〜1833が表示される。区間1831〜1833は、区画線の掠れ度合いが分かるように、掠れ度合いに応じた態様で表示される。区間1831〜1833のいずれかが選択されると、選択された区間1831〜1833の位置で撮影された静止画が静止画領域1801に表示され、選択された区間1831〜1833に対応する位置の動画が動画領域1802に表示される。   In the map area 1803, sections 1831 to 1833 in which lane markings have been detected are displayed in an overlapping manner on the map. The sections 1831 to 1833 are displayed in a manner according to the degree of blurring so that the degree of blurring of the lane markings can be seen. When any of the sections 1831 to 1833 is selected, the still image captured at the position of the selected section 1831 to 1833 is displayed in the still image area 1801 and the moving image at the position corresponding to the selected section 1831 to 1833 is displayed. Is displayed in the moving image area 1802.

静止画情報領域1804には、選択された区間1831〜1833に含まれる静止画のファイル名が表示される。ファイル名のいずれかが選択されると、選択されたファイル名の静止画が静止画領域1801に表示される。   In the still image information area 1804, the file names of the still images included in the selected sections 1831 to 1833 are displayed. When any one of the file names is selected, the still image with the selected file name is displayed in the still image area 1801.

標示種別選択領域1805は、表示する情報の絞り込みに用いる。標示種別選択領域1805で選択された種別の区画線が検出された区間のみを地図領域1803に表示する。   The marking type selection area 1805 is used for narrowing down the information to be displayed. Only the section in which the division line of the type selected in the marking type selection area 1805 is detected is displayed in the map area 1803.

以上説明したように、本実施の形態によれば、形状推定部112が、道路を撮影した撮影画像から路面標示の形状を推定して路面標示の有無及び種別を分類し、濃淡推定部113が、撮影画像から路面標示の濃淡を推定して路面標示の掠れ度合いの段階を分類し、区画線評価部115が、複数の撮影画像をまとめた区間ごとに区画線の掠れ度合いを評価し、出力部116が、区間ごとの区画線の掠れ度合いを出力することにより、道路を撮影した撮影画像から、区間ごとに区画線の掠れ度合いを判定できる。   As described above, according to the present embodiment, the shape estimating unit 112 estimates the shape of the road marking from the photographed image of the road, classifies the presence or absence and the type of the road marking, and the shade estimating unit 113 , Estimating the shade of the road marking from the photographed image to classify the degree of blurring of the road marking, and the lane marking evaluation unit 115 evaluates the blurring degree of the lane marking for each section in which a plurality of photographed images are collected and outputs By outputting the degree of blurring of the marking line for each section, the unit 116 can determine the degree of blurring of the marking line for each section from the captured image of the road.

本発明の装置はコンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。   The apparatus of the present invention can be realized by a computer and a program, and the program can be recorded in a recording medium or provided through a network.

100…路面標示不具合検出装置
111…静止画取得部
112…形状推定部
113…濃淡推定部
114…撮影位置突合部
115…区画線評価部
116…出力部
121,123…ニューラルネットワーク
122,124…パラメータ
101,102…記憶媒体
100... Road marking defect detection device 111... Still image acquisition unit 112... Shape estimation unit 113... Shade estimation unit 114... Shooting position abutting unit 115... Marking line evaluation unit 116... Output unit 121, 123... Neural network 122, 124... Parameter 101, 102... Storage medium

Claims (13)

道路標示及び区画線及び法定外表示の少なくともいずれかを含む路面標示を撮影した撮影画像から前記路面標示の不具合を検出する路面標示不具合検出装置であって、
撮影画像から前記路面標示の形状を推定して前記路面標示の有無及び種別を分類する形状推定手段と、
前記路面標示が有ると分類された前記撮影画像から前記路面標示の色の濃淡を推定して前記路面標示の掠れ度合いの段階を分類する濃淡推定手段と、
前記路面標示が区画線の場合は、複数の前記撮影画像をまとめた区間ごとに前記区画線の掠れ度合いを評価する区画線評価手段と、
区間ごとの前記区画線の掠れ度合いを出力する出力手段と、を有する
ことを特徴とする路面標示不具合検出装置。
A road marking defect detection device for detecting a defect of the road marking from a photographed image of a road marking including at least one of road marking, marking line and non-legal display,
Shape estimating means for estimating the shape of the road marking from the photographed image and classifying the presence or absence and the type of the road marking,
A shade estimating means for estimating the shade of the color of the road marking from the photographed image classified as having the road marking and classifying the degree of blurring degree of the road marking,
When the road marking is a lane marking, a lane marking evaluating unit that evaluates the degree of blurring of the lane marking for each section in which the plurality of captured images are collected,
An output device that outputs the degree of blurring of the lane markings for each section.
請求項1に記載の路面標示不具合検出装置であって、
前記区画線評価手段は、区間内の前記複数の撮影画像のそれぞれについて、前記撮影画像内の区画線の掠れ度合いに基づく撮影画像のスコアを算出して集計し、集計結果に基づいて区間ごとに前記区画線の掠れ度合いを評価する
ことを特徴とする路面標示不具合検出装置。
The road marking defect detection device according to claim 1,
The lane marking evaluation means calculates, for each of the plurality of photographed images in the section, a score of the photographed image based on the blurring degree of the lane markings in the photographed image, and totalizes the score based on the counting result. A road marking defect detecting device, characterized in that the degree of blurring of the lane markings is evaluated.
請求項2に記載の路面標示不具合検出装置であって、
前記区画線評価手段は、前記撮影画像内の区画線の掠れ度合いが高くなるほど高い重み付けで前記撮影画像を評価する
ことを特徴とする路面標示不具合検出装置。
The road marking defect detection device according to claim 2,
The road marking defect detection device, wherein the marking line evaluation means evaluates the photographed image with higher weighting as the degree of blurring of the marking line in the photographed image increases.
請求項3に記載の路面標示不具合検出装置であって、
前記撮影画像内の区画線の掠れ度合いが高くなるほど高い重み付けで前記撮影画像を評価するとは、前記撮影画像内の区画線の掠れ度合いが高くなるほど当該撮影画像のスコアが指数関数的に高くなるように前記撮影画像のスコアを算出する
ことである路面標示不具合検出装置。
The road marking defect detection device according to claim 3,
The higher the degree of blurring of the marking lines in the photographed image, the higher the weighted evaluation of the photographed image means that the score of the photographed image becomes exponentially higher as the degree of blurring of the marking lines in the photographed image increases. A pavement marking defect detection device for calculating the score of the photographed image.
請求項2ないし4のいずれかに記載の路面標示不具合検出装置であって、
前記区画線評価手段は、区間内の前記撮影画像のスコアの合計値または平均値と所定の閾値とを比較して区間ごとに前記区画線の掠れ度合いを評価する
ことを特徴とする路面標示不具合検出装置。
The road marking defect detection device according to any one of claims 2 to 4,
The marking line evaluating means compares the total value or the average value of the score of the photographed image in the section with a predetermined threshold value and evaluates the blurring degree of the marking line for each section. Detection device.
請求項2ないし5のいずれかに記載の路面標示不具合検出装置であって、
前記形状推定手段は、前記撮影画像の部分を部分画像として取得し、前記部分画像のうち前記路面標示が存在し得る部分画像を処理対象として抽出し、前記処理対象の部分画像のそれぞれに対して前記路面標示の有無及び種別を分類し、
前記濃淡推定手段は、前記路面標示が有ると分類された前記部分画像のそれぞれに対して前記路面標示の掠れ度合いの段階を分類するとともに、各段階に対する確信度を出力し、
前記区画線評価手段は、前記濃淡推定手段の分類した前記部分画像に対する前記掠れ度合いの段階に前記確信度の重み付けを行って当該部分画像のスコアを算出し、前記撮影画像内の前記部分画像のスコアに基づいて前記撮影画像のスコアを算出する
ことを特徴とする路面標示不具合検出装置。
The road marking defect detection device according to any one of claims 2 to 5,
The shape estimating unit acquires a portion of the captured image as a partial image, extracts a partial image of the partial image in which the road marking may exist as a processing target, and for each of the processing target partial images. Classify the presence and type of the road marking,
The gray level estimation means classifies the degree of blurring of the road marking for each of the partial images classified as having the road marking, and outputs a certainty factor for each step,
The lane marking evaluation means calculates the score of the partial image by weighting the certainty factor at the stage of the blurring degree with respect to the partial images classified by the grayscale estimation means, and calculates the score of the partial image, A road marking defect detecting device, characterized in that the score of the photographed image is calculated based on the score.
請求項6に記載の路面標示不具合検出装置であって、
前記区画線評価手段は、前記部分画像の区画線の掠れ度合いが高くなるほど高い重み付けで前記部分画像を評価して、前記部分画像のスコアを算出する
ことを特徴とする路面標示不具合検出装置。
The road marking failure detection device according to claim 6,
The road marking defect detection apparatus, wherein the lane marking evaluation means evaluates the partial images with higher weighting as the degree of blurring of the lane markings of the partial images increases, and calculates a score of the partial images.
請求項6または7に記載の路面標示不具合検出装置であって、
前記形状推定手段は、複数の部分画像にまたがって単一の前記路面標示が存在すると推定された場合に、前記複数の部分画像を結合して単一の部分画像として再形成する
ことを特徴とする路面標示不具合検出装置。
The road marking defect detection device according to claim 6 or 7, wherein
The shape estimating unit combines the plurality of partial images and re-forms them as a single partial image when it is estimated that a single road marking exists across a plurality of partial images. Road marking failure detection device.
請求項6ないし8のいずれかに記載の路面標示不具合検出装置であって、
前記区画線評価手段は、同一と推定される区画線が1つの撮影画像内の複数の部分画像において検出された場合、前記部分画像ごとに前記部分画像のスコアを算出した後、前記複数の部分画像のスコアの合計値または平均値に基づいて前記撮影画像のスコアを算出する
ことを特徴とする路面標示不具合検出装置。
The road marking defect detection device according to any one of claims 6 to 8,
When the lane markings estimated to be the same are detected in a plurality of partial images in one captured image, the lane marking evaluation means calculates a score of the partial images for each of the partial images, and then the plurality of portions. A road marking defect detecting device, wherein the score of the photographed image is calculated based on a total value or an average value of the image scores.
道路標示及び区画線及び法定外表示の少なくともいずれかを含む路面標示を撮影した撮影画像から前記路面標示の不具合を検出する路面標示不具合検出装置であって、
前記撮影画像の部分を部分画像として取得し、前記部分画像のうち前記路面標示が存在し得る部分画像を処理対象として抽出し、前記処理対象の部分画像のそれぞれに対して前記路面標示の有無及び種別を分類する形状推定手段と、
前記路面標示が有ると分類された前記部分画像から前記路面標示の色の濃淡を推定して前記路面標示の掠れ度合いの段階を分類するとともに、各段階に対する確信度を出力する濃淡推定手段と、
前記濃淡推定手段の分類した前記部分画像に対する前記掠れ度合いの段階に前記確信度の重み付けを行って前記路面標示の掠れ度合いを評価して出力する出力手段と、を有する
ことを特徴とする路面標示不具合検出装置。
A road marking defect detection device for detecting a defect of the road marking from a photographed image of a road marking including at least one of road marking, marking line and non-legal display,
Acquiring a part of the captured image as a partial image, extracting a partial image of the partial image in which the road marking may exist as a processing target, the presence or absence of the road marking for each of the processing target partial images, and Shape estimation means for classifying the types,
While estimating the shade of color of the road marking from the partial image classified as having the road marking and classifying the stages of the degree of blurring of the road marking, a shade estimating means for outputting a certainty factor for each step,
The road marking is characterized in that: the gradation estimation means weights the degree of blurring with respect to the classified partial images with respect to the classified images, and outputs an output to evaluate and output the blurring degree of the road marking. Defect detection device.
路面標示を撮影した撮影画像から前記路面標示の不具合を検出する路面標示不具合検出装置が実行する路面標示不具合検出方法であって、
撮影画像から道路標示及び区画線及び法定外表示の少なくともいずれかを含む路面標示の形状を推定して前記路面標示の有無及び種別を分類するステップと、
前記路面標示が有ると分類された前記撮影画像から前記路面標示の色の濃淡を推定して前記路面標示の掠れ度合いの段階を分類するステップと、
前記路面標示が区画線の場合は、複数の前記撮影画像をまとめた区間ごとに前記路面標示の掠れ度合いを評価するステップと、
前記路面標示の掠れ度合いを出力するステップと、を有する
ことを特徴とする路面標示不具合検出方法。
A road marking defect detection method executed by a road marking defect detecting device for detecting a defect of the road marking from a photographed image of a road marking,
A step of estimating the shape of the road marking including at least one of the road marking, the marking line, and the non-statutory display from the photographed image, and classifying the presence or absence and the type of the road marking,
A step of estimating the shade of color of the road marking from the photographed image classified as having the road marking and classifying the degree of blurring of the road marking;
When the road marking is a lane marking, a step of evaluating the blurring degree of the road marking for each section in which the plurality of captured images are collected,
And a step of outputting the degree of blurring of the road marking.
道路標示及び区画線及び法定外表示の少なくともいずれかを含む路面標示を撮影した撮影画像から前記路面標示の不具合を検出する路面標示不具合検出装置が実行する路面標示不具合検出方法であって、
前記撮影画像の部分を部分画像として取得し、前記部分画像のうち前記路面標示が存在し得る部分画像を処理対象として抽出し、前記処理対象の部分画像のそれぞれに対して前記路面標示の有無及び種別を分類するステップと、
前記路面標示が有ると分類された前記部分画像から前記路面標示の色の濃淡を推定して前記路面標示の掠れ度合いの段階を分類するとともに、各段階に対する確信度を出力するステップと、
前記部分画像に対する前記掠れ度合いの段階に前記確信度の重み付けを行って前記路面標示の掠れ度合いを評価して出力するステップと、を有する
ことを特徴とする路面標示不具合検出方法。
A road marking defect detection method executed by a road marking defect detecting device for detecting a defect in the road marking from a photographed image of a road marking including at least one of road marking, marking line and non-legal display,
Acquiring a part of the captured image as a partial image, extracting a partial image of the partial image in which the road marking may exist as a processing target, the presence or absence of the road marking for each of the processing target partial images, and Classifying the types,
While estimating the shading degree of the road marking by estimating the shading of the color of the road marking from the partial image classified as having the road marking, outputting a certainty factor for each step,
A step of weighting the certainty factor at the stage of the degree of blurring with respect to the partial image to evaluate and output the degree of blurring of the road marking, and a method of detecting a road marking defect.
請求項1ないし10のいずれかに記載の路面標示不具合検出装置の各手段としてコンピュータを動作させることを特徴とする路面標示不具合検出プログラム。   A road marking defect detection program, characterized in that a computer is operated as each means of the road marking defect detection device according to any one of claims 1 to 10.
JP2019060151A 2019-03-27 2019-03-27 Road marking failure detection device, road marking failure detection method, and road marking failure detection program Active JP6698191B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019060151A JP6698191B1 (en) 2019-03-27 2019-03-27 Road marking failure detection device, road marking failure detection method, and road marking failure detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060151A JP6698191B1 (en) 2019-03-27 2019-03-27 Road marking failure detection device, road marking failure detection method, and road marking failure detection program

Publications (2)

Publication Number Publication Date
JP6698191B1 true JP6698191B1 (en) 2020-05-27
JP2020160840A JP2020160840A (en) 2020-10-01

Family

ID=70776007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060151A Active JP6698191B1 (en) 2019-03-27 2019-03-27 Road marking failure detection device, road marking failure detection method, and road marking failure detection program

Country Status (1)

Country Link
JP (1) JP6698191B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116994214A (en) * 2023-09-25 2023-11-03 南京华琨信息科技有限公司 Highway road safety evaluation method and system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7315909B2 (en) 2020-12-07 2023-07-27 宮川興業株式会社 Computer system for visualizing soundness of crosswalk markings
WO2023119462A1 (en) * 2021-12-22 2023-06-29 日本電気株式会社 Management assistance system, management assistance method, and recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3584194B2 (en) * 2000-02-22 2004-11-04 株式会社ホンダエレシス White line detection method and white line detection device
JP5123812B2 (en) * 2008-10-10 2013-01-23 日立オートモティブシステムズ株式会社 Road marking recognition system
JP2019028939A (en) * 2017-08-03 2019-02-21 日本電信電話株式会社 Estimation method and estimation device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116994214A (en) * 2023-09-25 2023-11-03 南京华琨信息科技有限公司 Highway road safety evaluation method and system
CN116994214B (en) * 2023-09-25 2023-12-08 南京华琨信息科技有限公司 Highway road safety evaluation method and system

Also Published As

Publication number Publication date
JP2020160840A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
CN109977812B (en) Vehicle-mounted video target detection method based on deep learning
JP4493050B2 (en) Image analysis apparatus and image analysis method
JP6180482B2 (en) Methods, systems, products, and computer programs for multi-queue object detection and analysis (multi-queue object detection and analysis)
JP6698191B1 (en) Road marking failure detection device, road marking failure detection method, and road marking failure detection program
CN110135307B (en) Traffic sign detection method and device based on attention mechanism
JP6653361B2 (en) Road marking image processing apparatus, road marking image processing method, and road marking image processing program
CN109948684B (en) Quality inspection method, device and equipment for laser radar point cloud data labeling quality
CN107481238A (en) Image quality measure method and device
Laumer et al. Geocoding of trees from street addresses and street-level images
CN111832489A (en) Subway crowd density estimation method and system based on target detection
Chen et al. Strategies for integrating information from multiple spatial resolutions into land-use/land-cover classification routines
Hinz Detection and counting of cars in aerial images
CN113724259B (en) Well lid abnormity detection method and device and application thereof
Li Optimising detection of road furniture (pole-like objects) in mobile laser scanning data
CN111626277A (en) Vehicle tracking method and device based on over-station inter-modulation index analysis
CN109948683A (en) Difficulty division methods, device and its relevant device of point cloud data
JP2020144572A (en) Road failure detection device, road failure detection method, and road failure detection program
CN113516771A (en) Building change feature extraction method based on live-action three-dimensional model
Huang et al. A knowledge-based approach to urban feature classification using aerial imagery with lidar data
Thomas et al. Smart car parking system using convolutional neural network
JP2007033931A (en) Road recognition system for map generation using satellite image or the like
CN113988222A (en) Forest fire detection and identification method based on fast-RCNN
Hinks et al. Visualisation of urban airborne laser scanning data with occlusion images
Widyantoro et al. Fuzzy traffic congestion model based on speed and density of vehicle
Ghani et al. Accuracy Assessment of Urban Growth Pattern Classification Methods Using Confusion Matrix and ROC Analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R150 Certificate of patent or registration of utility model

Ref document number: 6698191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250