JP2019096121A - Road image processing device, road image processing method, road image processing program, and recording medium - Google Patents

Road image processing device, road image processing method, road image processing program, and recording medium Download PDF

Info

Publication number
JP2019096121A
JP2019096121A JP2017225800A JP2017225800A JP2019096121A JP 2019096121 A JP2019096121 A JP 2019096121A JP 2017225800 A JP2017225800 A JP 2017225800A JP 2017225800 A JP2017225800 A JP 2017225800A JP 2019096121 A JP2019096121 A JP 2019096121A
Authority
JP
Japan
Prior art keywords
road image
road
image processing
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017225800A
Other languages
Japanese (ja)
Other versions
JP6929207B2 (en
Inventor
中村 隆幸
Takayuki Nakamura
隆幸 中村
吉田 和史
Kazufumi Yoshida
和史 吉田
雅稔 井藤
Masatoshi Ito
雅稔 井藤
小野 貴史
Takashi Ono
貴史 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2017225800A priority Critical patent/JP6929207B2/en
Publication of JP2019096121A publication Critical patent/JP2019096121A/en
Application granted granted Critical
Publication of JP6929207B2 publication Critical patent/JP6929207B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a road image processing device, road image processing method, road image processing program and recording medium that detect track cracks, using captured images by inexpensive cameras without requiring expensive dedicated instruments.SOLUTION: A road image processing device 100 processing road images has: a lane detection unit 112 that detects a lane area from a still image serving the road image, or a still image taken out from a motion image serving the road image; a bird's-eye view generation unit 113 that generates a bird's-eye view image of the lane area; a cross section extraction unit 114 that extracts a primary-dimensional pixel group in a road traverse direction in the bird's-eye view image; and a track determination unit 115 that determines presence ot absence of tracks of the pixel group.SELECTED DRAWING: Figure 1

Description

本発明は、道路の撮影画像を解析処理して、わだち掘れ不具合を検出するとともにその様子を可視化表示する技術に関する。   The present invention relates to a technology for analyzing and processing a photographed image of a road to detect rutting defects and visualizing and displaying the situation.

従来、アスファルト等の道路舗装の不具合を検出する指標として、ひび割れおよび平坦性およびわだち掘れの3指標が用いられてきた。特に、わだち掘れとは、車の左右の車輪が繰り返し踏みしめる部分が沈み込み、車線の進行方向に連続的にへこみが続くような不具合を指す。   Conventionally, three indicators of crack and flatness and rutting have been used as indicators for detecting defects in road pavement such as asphalt. In particular, rutting refers to a defect in which the portion where the left and right wheels of the car repeatedly depress sinks and continues to dent in the traveling direction of the lane.

わだち掘れは、高速走行でハンドルが取られて事故の原因になったり、また、雨天時に雨水が溜まり歩行者への大きな水撥ねの原因になるなどの問題を引き起こすため、わだち掘れを点検し、計画的に修繕することは重要である。   Since rutting may cause problems such as taking off the steering wheel at high speed and causing an accident, or causing rainwater to accumulate in the rain and causing a large splash on the pedestrian, check the rutting. It is important to repair in a planned manner.

従来、これらの指標値での点検には、路面性状測定車といわれる高額な専用車両を用いることが多かった。路面性状測定車にはレーザー照射を行って、道路の横断方向での凹凸を検出する専用測定機能が搭載されているなどし、正確にわだち掘れを検出することができる。   In the past, expensive special-purpose vehicles called road surface quality measuring vehicles were often used for inspection with these index values. The road surface measurement vehicle is equipped with a dedicated measurement function that detects the unevenness in the cross direction of the road by performing laser irradiation, so that it is possible to accurately detect rutting.

一方、ひび割れ不具合に関しては、ビデオカメラとAIを組み合わせた安価な点検方法も提案されてきた(非特許文献1)。   On the other hand, regarding crack problems, an inexpensive inspection method combining a video camera and an AI has also been proposed (Non-Patent Document 1).

道路を静止画カメラあるいはビデオカメラにて撮影した画像は、当然、遠近法に基づいて遠くが小さく見えるような画像として得られる。このような画像から、舗装不具合の判定対象とするべき一車線の領域を検出したり、また、当該領域に対して遠近法を逆に適用して真上から見た画像を生成する技術は、様々な方法が提案されてきた。例えば、非特許文献2には、車線領域の検出処理および車線領域を真上から見た画像の生成処理の両方の詳細手順が開示されている。なお、前記「真上から見た画像」は、鳥瞰図あるいはオルソ画像などと呼称される。   An image obtained by photographing a road with a still image camera or a video camera is naturally obtained as an image which looks small in distance based on perspective. From such an image, a technique for detecting an area of one lane to be determined as a pavement defect or for applying an inverse perspective to the area to generate an image viewed from directly above, Various methods have been proposed. For example, Non-Patent Document 2 discloses detailed procedures of both detection processing of a lane area and generation processing of an image in which the lane area is viewed from directly above. The “image viewed from directly above” is referred to as a bird's eye view or an ortho image.

「誕生!インフラ×AI 業界地図アダルト画像や不審者を見逃さない、深層学習が次に見抜くものAIで狙うインフラの維持管理市場(舗装編2:NTTコムウェア)」、http://itpro.nikkeibp.co.jp/atcl/column/17/051900200/052400007/、ウェブサイトの掲載日 平成29年6月6日"Birth! Infrastructure × AI industry map adult images and suspicious people do not miss, what depth learning is the next sight The infrastructure maintenance and management market that AI aims for (paving edition 2: NTT COMWARE), http: //itpro.nikkeibp. co.jp/atcl/column/17/051900200/052400007/ The date of publication of the website on June 6, 2017 「車載カメラ画像処理による道路白線測位方式の開発」,神田 準史郎, 田口 進也, 米山 昇吾,情報処理学会研究報告高度交通システム(ITS), 2006-ITS-024, pp.55-61, 2006."Development of Road White Line Positioning Method by In-vehicle Camera Image Processing", Junshiro Kanda, Shinya Taguchi, Shogo Yoneyama, IPSJ Reports Advanced Traffic System (ITS), 2006-ITS-024, pp. 55-61, 2006 .

従来、わだち掘れの検出には、レーザー照射やステレオ撮影などの高額な専用機器を必要とし、安価な単眼のビデオカメラ等での撮影画像を用いては検出ができないという問題があった。   Conventionally, rutting detection requires expensive dedicated equipment such as laser irradiation and stereo imaging, and there has been a problem that detection can not be performed using an image captured by an inexpensive monocular video camera or the like.

また、従来、わだち掘れの検出の状況を分かり易く可視化するには、高額な専用機器を必要とし、安価な単眼のビデオカメラ等での撮影画像を用いたわだち掘れの検出の様子を分かりやすく可視化できないという問題があった。   Also, conventionally, in order to visualize rutting detection status in an easy-to-understand manner, expensive dedicated equipment is required, and the appearance of rutting detection using an image captured with an inexpensive single-lens video camera etc. is visualized in an easy-to-understand manner There was a problem that it was impossible.

本発明は、上記事情に鑑みてなされたものであり、本発明の目的は、高額な専用機器を必要とすることなく、安価なビデオカメラでの撮影画像を用いて、わだち掘れを検出することにある。   The present invention has been made in view of the above circumstances, and it is an object of the present invention to detect rutting using an image taken by an inexpensive video camera without the need for expensive dedicated equipment. It is in.

また、本発明の目的は、高額な専用機器を必要とすることなく、安価なカメラでの撮影画像を用いて、わだち掘れの検出の状況を分かり易く可視化することにある。   Another object of the present invention is to visualize the rutting detection status in an easy-to-understand manner by using an inexpensive camera-captured image without requiring an expensive dedicated device.

本発明は、道路画像を処理する道路画像処理装置であって、前記道路画像である静止画、または前記道路画像である動画から取り出した静止画から車線領域を検出する車線検出部と、前記車線領域の鳥瞰図画像を生成する生成部と、前記鳥瞰図画像における道路横断方向の一次元の画素群を抽出する抽出部と、前記画素群のわだちの有無を判定する判定部とを有する。   The present invention is a road image processing apparatus that processes a road image, and includes a lane detection unit that detects a lane area from a still image that is the road image or a still image extracted from a moving image that is the road image; It has a generation unit that generates a bird's-eye view image of a region, an extraction unit that extracts a one-dimensional pixel group in a cross road direction in the bird's-eye view image, and a determination unit that determines presence or absence of a rut of the pixel group.

本発明は、道路画像を処理する道路画像処理装置であって、前記道路画像である静止画、または前記道路画像である動画から取り出した静止画から車線領域を検出する車線検出部と、前記斜線領域の鳥瞰図画像を生成する生成部と、前記鳥瞰図画像における道路横断方向の一次元の画素群を複数抽出する抽出部と、前記抽出された各画素群の各画素について、当該画素値を高さ方向の座標に設定し、当該画素群における当該画素の位置を横方向の座標に設定し、当該画素群の道路進行方向における位置を縦方向の座標に設定し、前記設定した3次元の座標に基づいて前記道路画像を3次元で描画する描画部とを有する。   The present invention is a road image processing apparatus for processing a road image, which is a lane detection unit for detecting a lane area from a still image which is the road image or a still image extracted from a moving image which is the road image; For each pixel of each of the extracted pixel groups, the generation unit for generating a bird's-eye view image of the area, the extraction unit for extracting a plurality of one-dimensional pixel groups in the cross road direction in the bird's eye view image The coordinate of the direction is set, the position of the pixel in the pixel group is set in the horizontal coordinate, the position of the pixel group in the road traveling direction is set in the vertical coordinate, and the set three-dimensional coordinate is set. And a drawing unit for drawing the road image in a three-dimensional manner.

本発明は、コンピュータが行う、道路画像を処理する道路画像処理方法であって、前記道路画像である静止画、または前記道路画像である動画から取り出した静止画から車線領域を検出する車線検出ステップと、前記車線領域の鳥瞰図画像を生成する生成ステップと、前記鳥瞰図画像における道路横断方向の一次元の画素群を抽出する抽出ステップと、前記画素群のわだちの有無を判定する判定ステップとを行う。   This invention is a road image processing method which processes a road image which a computer performs, Comprising: The lane detection step which detects a lane area | region from the still image which is the said road image, or the still image taken out from the moving image which is the said road image. Performing a generation step of generating a bird's-eye view image of the lane area, an extraction step of extracting a one-dimensional pixel group in the cross road direction in the bird's-eye view image, and a determination step determining presence or absence of a rut of the pixel group .

本発明は、コンピュータが行う、道路画像を処理する道路画像処理方法であって、前記道路画像である静止画、または前記道路画像である動画から取り出した静止画から車線領域を検出する車線検出ステップと、前記車線領域の鳥瞰図画像を生成する生成ステップと、前記鳥瞰図画像における道路横断方向の一次元の画素群を抽出する抽出ステップと、前記抽出された各画素群の各画素について、当該画素値を高さ方向の座標に設定し、当該画素群における当該画素の位置を横方向の座標に設定し、当該画素群の道路進行方向における位置を縦方向の座標に設定し、前記設定した3次元の座標に基づいて前記道路画像を3次元で描画する描画ステップとを行う。   This invention is a road image processing method which processes a road image which a computer performs, Comprising: The lane detection step which detects a lane area | region from the still image which is the said road image, or the still image taken out from the moving image which is the said road image. The generating step of generating a bird's-eye view image of the lane area, the extracting step of extracting a one-dimensional pixel group in the cross road direction in the bird's-eye view image, and the pixel value of each pixel of each extracted pixel group Is set to the coordinate in the height direction, the position of the pixel in the pixel group is set to the coordinate in the horizontal direction, the position in the road traveling direction of the pixel group is set to the coordinate in the vertical direction, And drawing the road image in a three-dimensional manner based on the coordinates of.

本発明は、コンピュータを、前記道路画像処理装置として機能させるための道路画像処理プログラムである。   The present invention is a road image processing program for causing a computer to function as the road image processing device.

本発明は、コンピュータを、前記道路画像処理装置として機能させるための道路画像処理プログラムを記録した記録媒体である。   The present invention is a recording medium storing a road image processing program for causing a computer to function as the road image processing apparatus.

本発明によれば、高額な専用機器を必要とすることなく、安価なビデオカメラでの撮影画像を用いて、わだち掘れを検出することができる。   According to the present invention, it is possible to detect rutting using images taken with an inexpensive video camera without the need for expensive dedicated equipment.

また、本発明によれば、高額な専用機器を必要とすることなく、安価なカメラでの撮影画像を用いて、わだち掘れの検出の状況を分かり易く可視化することができる。   Further, according to the present invention, it is possible to easily visualize the rutting detection status using an image captured by an inexpensive camera without requiring an expensive dedicated device.

道路画像処理装置の構成を示す。1 shows the configuration of a road image processing apparatus. 道路を撮影した静止画の例を示す。The example of the still picture which photographed the road is shown. 処理フローチャートを示す。2 shows a processing flowchart. 鳥瞰図の例を示す。An example of a bird's eye view is shown. 道路横断方向に関する断面の画素群の例を示す。The example of the pixel group of the cross section regarding a road crossing direction is shown. わだち判定処理のフローチャートを示す。The flowchart of a rut determination process is shown. 断面画素群の微分値の例を示す。The example of the derivative value of a cross-sectional pixel group is shown. 片側わだち判定処理のフローチャートを示す。5 shows a flowchart of a one-sided rut determination process. ディープラーニングを用いた片側わだち判定処理の概要を示す。An outline of one-sided rut determination processing using deep learning is shown. 可視化配列へのマッピング例を示す。An example of mapping to a visualization array is shown.

本発明の実施の形態の一つを以下に示す。   One of the embodiments of the present invention is shown below.

図1は本実施の形態における道路画像処理装置の構成を示す。   FIG. 1 shows the configuration of a road image processing apparatus according to the present embodiment.

道路画像処理装置100は以下の機能を具備する。すなわち、記憶媒体101、画面102、静止画取得部111、車線検出部112、鳥瞰図生成部113、断面抽出部114、わだち判定部115、集計部116、描画部117および描画データ保存部121を具備する。   The road image processing apparatus 100 has the following functions. That is, the storage medium 101, the screen 102, the still image acquisition unit 111, the lane detection unit 112, the bird's eye view generation unit 113, the cross section extraction unit 114, the rut determination unit 115, the aggregation unit 116, the drawing unit 117, and the drawing data storage unit 121 are provided. Do.

記憶媒体101は、撮影した画像を道路画像処理装置100に入力するための手段である。本実施の形態においては、市販のビデオカメラを車両に搭載して走行しながら撮影した動画のファイルを記録媒体101であるSDメモリカードなどに格納して、当該SDメモリカードを道路画像処理装置 100に装着して読み込ませることとする。画面102は、ディスプレイ等の出力装置である。   The storage medium 101 is a means for inputting the photographed image into the road image processing apparatus 100. In the present embodiment, a file of a moving image captured while traveling with a commercially available video camera mounted on a vehicle is stored in an SD memory card or the like as the recording medium 101, and the SD memory card is stored in the road image processing apparatus 100. It will be attached and read. The screen 102 is an output device such as a display.

静止画取得部111は、記憶媒体101に記録された道路画像の動画ファイルから、静止画を取り出す。なお、静止画取得部111は、動画ファイルからではなく、静止画そのものを入力としてもよい。車線検出部112は、静止画から車線領域を検出する。鳥瞰図生成部113は、車線領域の鳥瞰図画像を生成する。断面抽出部114は、鳥瞰図画像における道路横断方向の一次元の画素群を抽出する。   The still image acquisition unit 111 extracts a still image from the moving image file of the road image recorded in the storage medium 101. The still image acquisition unit 111 may receive the still image itself instead of the moving image file. The lane detection unit 112 detects a lane area from the still image. The bird's eye view generation unit 113 generates a bird's eye view image of the lane area. The cross-section extraction unit 114 extracts one-dimensional pixel groups in the cross road direction in the bird's-eye view image.

わだち判定部115は、抽出した画素群のわだち掘れの有無(わだちの有無)を判定する。図示するわだち判定部115は、前記画素群から、左の車輪通過位置に相当する第1画素部分および右の車輪通過位置に相当する第2画素部分を抽出する車輪位置抽出部1151と、第1画素部分および前記第2画素部分のわだち掘れの有無を判定する検出部1152とを有する。集計部116は、複数の画素群の各々の判定結果を集計して、前記複数の画素群の全体のわだち掘れの有無を判定する。   The ruth determination unit 115 determines the presence or absence of rutting (the presence or absence of ruth) of the extracted pixel group. The first wheel position extraction unit 1151 extracts a first pixel portion corresponding to the left wheel passing position and a second pixel portion corresponding to the right wheel passing position from the group of pixels, and a first pixel portion corresponding to the left wheel passing portion; And a detection unit 1152 that determines the presence or absence of rutting of the pixel portion and the second pixel portion. The aggregation unit 116 aggregates the determination results of each of the plurality of pixel groups, and determines the presence or absence of rutting of the entire plurality of pixel groups.

描画部117は、断面抽出部114が抽出した各画素群の各画素について、当該画素値を高さ方向の座標に設定し、当該画素群における当該画素の位置を横方向の座標に設定し、当該画素群の道路進行方向における位置を縦方向の座標に設定し、前記設定した3次元の座標に基づいて前記道路画像を3次元で描画する。描画データ保存部121には、断面抽出部114が抽出した各画素群が格納される。   The drawing unit 117 sets the pixel value of each pixel of each pixel group extracted by the cross-section extraction unit 114 as coordinates in the height direction, and sets the position of the pixel in the pixel group as horizontal coordinates. The position of the group of pixels in the road traveling direction is set as vertical coordinates, and the road image is drawn in three dimensions based on the set three-dimensional coordinates. The drawing data storage unit 121 stores each pixel group extracted by the cross-section extraction unit 114.

111〜117および121の各機能は、以下で詳述する動作を行うことで、わだち掘れの判定および結果の可視化を行う。   Each of the functions 111 to 117 and 121 performs rutting determination and visualization of results by performing the operation described in detail below.

図2は道路を撮影した静止画の例を示す。記憶媒体101に保存されている前記撮影動画は、一時停止して各フレームに着目した場合、それぞれのフレームは例えば図2の撮影画像201のような画像となっている。   FIG. 2 shows an example of a still image obtained by photographing a road. When the captured moving image stored in the storage medium 101 is paused to focus on each frame, each frame is an image such as the captured image 201 of FIG.

本画像においては、片側1車線の左側通行の道路を示しており、センターライン204は点線で示される。車線の左端は白線203で示され、その左側は歩道である。符号205は歩道の端を表しており、これより左は道路に面した家屋などが撮影されている。車線202はセンターライン204と白線203で挟まれた領域である。わだち掘れの判定は、車線202の領域を対象とする。   In the present image, a road passing on the left side of one lane on one side is shown, and the center line 204 is shown by a dotted line. The left end of the lane is indicated by a white line 203, and the left side is a sidewalk. Reference numeral 205 denotes the end of the sidewalk, from which a house facing the road is photographed on the left. The lane 202 is an area between the center line 204 and the white line 203. Judgment of rutting is targeted at the area of the lane 202.

わだち掘れは道路の進行方向に連続する車輪(タイヤ)跡のくぼみであり、符号206は車両の左車輪のわだち掘れ、符号207は車両の右車輪のわだち掘れの様子を図示している。   The rutting is a depression of a wheel (tire) mark continuous in the traveling direction of the road, reference numeral 206 shows a rutting of the left wheel of the vehicle, and reference numeral 207 shows a rutting of the right wheel of the vehicle.

わだち掘れは、撮影画像においては、光線のあたり具合に起因して道路の舗装面上に縦長の陰影が付いて見えるという形で現出する。符号206あるいは符号207のような見え方が、片側のみあるいは両側に認められるとき、当該撮影画像はわだち掘れ有りと判定できる。   Rutting appears in the form of visible shadows on the pavement of the road in the photographed image, due to the contact of the rays. When the appearance as in the reference numeral 206 or the reference numeral 207 is recognized on only one side or both sides, it is possible to determine that the photographed image has rutting.

以下で詳述する動作によって、前記わだち掘れ判定動作を実現する。   The rutting determination operation is realized by the operation described in detail below.

図3はわだち掘れ判定処理のフローチャートを示す。   FIG. 3 shows a flowchart of rutting determination processing.

まず、道路画像処理装置100が処理を開始すると(手順300)、静止画取得部111が、記憶媒体101から撮影動画のファイルを読み取って、一定間隔ごとに静止画を取り出し、以降の手順へと送る(手順301)。   First, when the road image processing apparatus 100 starts processing (procedure 300), the still image acquisition unit 111 reads the file of the captured moving image from the storage medium 101, takes out the still image at regular intervals, and proceeds to the subsequent procedure. Send (procedure 301).

なお、ここで言う一定間隔ごとに静止画を取り出すとは、例えば動画が毎秒30フレームで撮影されているときは、1秒あたり30枚の静止画として取り出してその全てを以降の手順での処理対象としてもよいし、30枚のうち一定枚数だけを処理対象とするような間引きを行ってもよいし、あるいは、GPSによって車両の緯度経度座標や移動速度を車両から取得しておいて例えば3メートルごと等の一定距離間隔を進んだ位置に相当する静止画を抜き出して処理対象としてもよい。   Note that taking out still images at regular intervals as mentioned here means, for example, when moving images are shot at 30 frames per second, 30 still images per second are taken out and all of them are processed in the following procedure. It may be a target, or thinning may be performed so that only a predetermined number of 30 sheets are to be processed, or the latitude / longitude coordinates of the vehicle and the moving speed may be acquired from the vehicle by GPS, for example 3 Still images corresponding to positions advanced by a fixed distance interval such as every meter may be extracted and processed.

次に、車線検出部112は、前記処理対象の静止画から車線202に相当する領域を検出する(手順302)。さらに、鳥瞰図生成部113は、画像内の前記検出された車線領域について、鳥瞰図すなわち真上から見た画像を生成する(手順303)。   Next, the lane detection unit 112 detects an area corresponding to the lane 202 from the still image to be processed (procedure 302). Furthermore, the bird's eye view generation unit 113 generates a bird's eye view, that is, an image seen from directly above, of the detected lane area in the image (step 303).

既に述べたように、手順302および手順303の処理方法として多数の技術が従来から提案されており、例えば非特許文献2には手順302および手順303の処理方法の詳細が開示されている。これらの技術を用いることにより、手順302および手順303は実施できる。   As already mentioned, many techniques are conventionally proposed as the processing method of the procedure 302 and the procedure 303, for example, details of the processing method of the procedure 302 and the procedure 303 are disclosed in Non-Patent Document 2. By using these techniques, procedures 302 and 303 can be implemented.

図4は手順303の結果として得られた鳥瞰図401の例を示す。符号401は得られた画像の全体を示しており、図2の車線202に相当する領域を真上から見た画像に相当する。符号402は、図2の符号206に相当する左車輪のわだち掘れを示している。また、符号403は、図2の符号207に相当する右車輪のわだち掘れを示している。   FIG. 4 shows an example of a bird's-eye view 401 obtained as a result of procedure 303. Reference numeral 401 denotes the entire obtained image, which corresponds to an image of a region corresponding to the lane 202 in FIG. 2 as viewed from directly above. Reference numeral 402 indicates the rutting of the left wheel corresponding to reference numeral 206 in FIG. Further, reference numeral 403 denotes rutting of the right wheel corresponding to reference numeral 207 in FIG.

次に、断面抽出部114は、前記鳥瞰図の画像401から、道路横断方向に関する断面の画素群を抽出する(手順304)。具体的に図示すると、鳥瞰図画像401に対して、道路横断方向に関する断面とは符号410あるいは符号411あるいは符号412のことであり、この線上の画素をピックアップする処理が手順304に相当する。当該処理結果である前記断面の画素群は、当然、横方向の1次元画像(1次元情報)となる。   Next, the cross-section extraction unit 114 extracts, from the image 401 of the bird's-eye view, the pixel group of the cross-section in the cross road direction (procedure 304). Specifically, with respect to the bird's-eye view image 401, the cross section in the cross direction of the road is the code 410 or 411 or 412, and the process of picking up the pixels on this line corresponds to the procedure 304. As a matter of course, the pixel group of the cross section, which is the processing result, becomes a horizontal one-dimensional image (one-dimensional information).

ここで、断面抽出部114は、後述する処理に使用するために、抽出した断面の画素群を描画データ保存部121に格納してもよい(手順310)。   Here, the cross-sectional extraction unit 114 may store the extracted cross-sectional pixel group in the drawing data storage unit 121 (procedure 310), for use in processing to be described later.

前記断面の画素群の抽出手順は、1つの鳥瞰図画像401に対して、1つ以上の断面に関して抽出を行い、それぞれの抽出結果の前記断面の画素群に対して、以下で述べる手順305を実施する。   The extraction procedure of the cross-sectional pixel group performs extraction on one or more cross-sections with respect to one bird's-eye view image 401, and executes the procedure 305 described below on the cross-sectional pixel group of each extraction result Do.

その際、前記1つ以上の断面に関する抽出とは、例えば全ての画素のラインに対して抽出してその全てを手順305での処理対象としてもよいし、画素のラインのうち一定間隔で抜き出したもののみを処理対象とするような間引きを行ってもよいし、あるいは、例えば0.5メートルごと等の一定距離間隔を進んだ位置に相当する鳥瞰図画像上の画素のラインを抜き出して処理対象としてもよい。   At this time, the extraction regarding the one or more cross sections may be performed, for example, for all the lines of all the pixels and all of them may be processed in the step 305, or extracted at predetermined intervals among the lines of the pixels. For example, a line of pixels on a bird's-eye view image corresponding to a position advanced by a predetermined distance interval such as every 0.5 meters may be extracted as a process target. It is also good.

図5は手順304の結果として得られた道路横断方向に関する断面の画素群の例を示す。図5の横軸は、道路横断方向(図4では横方向)の1次元画像に関する横軸(位置)を表している。また、図5の縦軸は、それぞれの座標での画素における画素値を表しており、画素値が大きいものほど上に図示するようなグラフとなっている。   FIG. 5 shows an example of a cross-sectional pixel group in the cross road direction obtained as a result of the procedure 304. The horizontal axis in FIG. 5 represents the horizontal axis (position) of the one-dimensional image in the cross road direction (the horizontal direction in FIG. 4). Further, the vertical axis in FIG. 5 represents the pixel value of the pixel at each coordinate, and the larger the pixel value is, the graph as illustrated above.

なお、本実施形態においては、画素値としてカラー映像における輝度を用いる。本発明の範囲はこれに限るものではなく、R,G,BあるいはH,S,V等の色表現におけるいずれかの指標値を用いてもよいし、あるいは、これらを一定の計算式で演算して得られた結果の値を前記画素値として用いてもよい。   In the present embodiment, the luminance in a color image is used as the pixel value. The scope of the present invention is not limited to this, and any index value in the color expression of R, G, B or H, S, V, etc. may be used, or these may be calculated by a fixed formula. The value obtained as a result may be used as the pixel value.

図5で例示する断面の画素群のグラフでは、図4の符号402および符号403で示されるわだち掘れ画像に相当する画素値の特徴が、それぞれ符号502および符号503で示される波形変化として現出している。   In the graph of the pixel group of the cross section illustrated in FIG. 5, the feature of the pixel value corresponding to the rutting image indicated by reference numerals 402 and 403 in FIG. 4 appears as the waveform change indicated by reference numerals 502 and 503, respectively. ing.

次に、わだち判定部115は、前記得られた道路横断方向に関する断面の画素群に対して、わだち掘れが有るか無いかを判定するサブルーチン処理を行う(手順305)。当該サブルーチンの詳細は後述する。   Next, the rut determining unit 115 performs a subroutine processing to determine whether or not rutting is present with respect to the obtained pixel group of the cross section in the cross road direction (procedure 305). Details of the subroutine will be described later.

最後に、集計部116は、1つ以上の断面の画素群の各々に対して手順305を適用して得られた1つ以上のわだち掘れ有無の判定結果に対して、所定の道路区間毎に集計処理を行い、当該道路区間におけるわだち掘れが有るか無いかの最終的な判定処理を行う(手順306)。以上で処理を終了する(手順307)。   Finally, the tabulating unit 116 determines, for each of the predetermined road sections, the determination result of the one or more rutting presence or absence obtained by applying the procedure 305 to each of the pixel groups of the one or more cross sections. An aggregation process is performed, and a final determination process is performed to determine whether or not rutting is present in the road section (procedure 306). Thus, the process ends (step 307).

前記集計処理とは、わだち掘れの有るもしくは無いという個々の判定結果に対して、例えば閾値を50%とする判断処理すなわち多数決の処理を行ってもよいし、あるいは50%以外の閾値に基づく判断処理を行ってもよい。すなわち、わだち掘れ有りと判定された断面の画素群が全体の中で所定の閾値(割合)以上の場合は、最終的な判定結果としてわだち掘れ「有り」と判定し、一方、わだち掘れ有りと判定された断面の画素群が全体の中で所定の閾値未満の場合は、最終的な判定結果としてわだち掘れ「無し」と判定する。   In the aggregation process, for example, a determination process with a threshold of 50%, ie, a majority process, may be performed on each determination result that rutting is present or absent, or a determination based on a threshold other than 50%. You may process. That is, when the pixel group of the cross section determined to have rutting presence is equal to or more than a predetermined threshold (ratio) in the whole, it is determined as rutting presence as a final determination result, while rutting presence is determined. When the pixel group of the determined cross section is less than a predetermined threshold value in the whole, it is determined that rutting is "none" as a final determination result.

あるいは、前記集計処理として、統計的な有意率に基づく仮説棄却によって最終的な判定を行ってもよい。もしくは、個々のわだち掘れの判定結果が前後の一定回数で連続して「有り」と判定された場合には最終的な判定結果も「有り」とするような集計処理であってもよい。   Alternatively, final determination may be performed by hypothesis rejection based on the statistical significance rate as the aggregation process. Alternatively, it may be an aggregation process in which the final determination result is also set to “present” when each rutting determination result is determined to be “present” continuously at a fixed number of times before and after.

また、後述するサブルーチン処理(手順305)によって、左車輪と右車輪のそれぞれについて、わだち掘れの有無が判定された場合、それら左右の結果を一度集計(例えば、少なくとも一方がわだち掘れ有りの場合に集計結果を有りとする等)した後に前記集計処理を行ってもよいし、もしくは、左の結果と右の結果をそれぞれ別の位置での判定結果と見なして前記集計処理を行ってもよい。   Also, if it is determined by the subroutine processing (procedure 305) to be described later whether or not rutting has been made for each of the left wheel and the right wheel, the results of those left and right are counted once (for example, when at least one has rutting) The counting process may be performed after the counting result is regarded as being present, or the counting process may be performed by regarding the left result and the right result as the determination results at different positions.

また、前記集計処理は、単一の前記鳥瞰図画像内に関して手順304で抽出された各断面での判定結果に関して集計を行ってもよいし、もしくは、手順301で取り出された複数の静止画に基づいて複数の鳥瞰図画像を得てそれら複数の鳥瞰図画像から得られた複数の断面について、各断面でのわだち掘れの有無の判定結果を総合して集計を行ってもよい。   In addition, the counting process may perform counting on the determination results in each cross section extracted in step 304 with respect to a single bird's-eye view image, or based on a plurality of still images extracted in step 301. A plurality of bird's-eye view images may be obtained, and a plurality of cross sections obtained from the plurality of bird's-eye view images may be totaled by integrating the determination results of the presence or absence of rutting in each cross section.

特に、国土交通省の通達によれば、道路の20mもしくは100mといった区間に関してわだち掘れの有無を判定することが推奨されているため、前記道路区間における複数の静止画を用いて総合的に集計を行うことで、当該通達に判定結果を適合させられるという利点が得られる。   In particular, according to the notification of the Ministry of Land, Infrastructure, Transport and Tourism, it is recommended to determine the presence or absence of rutting on sections such as 20 m or 100 m of the road. By doing, the advantage is obtained that the decision can be adapted to the notification.

図6は、手順305で呼び出される、わだち判定処理サブルーチンのフローチャートを示す。   FIG. 6 shows a flowchart of the rut determination processing subroutine called in step 305.

まず、サブルーチンを開始すると(手順600)、わだち判定部115は、前記断面の画素群に対して、画素群の微分値を算出する(手順601)。ここで、微分値の算出とは、隣接する値の差分を集合として算出する処理のことであるから、具体的には、例えば、隣り合う画素の画素値を引き算すればよい。   First, when the subroutine is started (procedure 600), the rut determining unit 115 calculates the differential value of the pixel group for the pixel group of the cross section (procedure 601). Here, since the calculation of the differential value is a process of calculating the difference between adjacent values as a set, specifically, for example, the pixel values of the adjacent pixels may be subtracted.

図7は、前記得られた断面画素群の微分値の例を示す。   FIG. 7 shows an example of the differential value of the obtained cross-sectional pixel group.

次に、わだち判定部115は、車輪位置抽出処理を行って、左の車輪が通過する位置および右の車輪が通過する位置の画素群に関する部分集合を元の前記微分値から抽出する(手順602)。   Next, the rut determining unit 115 performs a wheel position extraction process to extract a subset of pixel groups at which the left wheel passes and the right wheel passes from the original differential value (procedure 602). ).

具体的には、例えば前記断面の画素群が1000ドットの横一線の画像だったと仮定した場合、前記微分値は1000ドット相当の値の集合として得られているのであるから、車線の中央は500ドット付近の座標である。車線幅が一般の道路で3m〜3.5m程度であることを勘案すると、一般乗用車ならびに大型車において左の車輪が通過するのは例えばおよそ0ドットから200ドット付近の位置であり、また、右の車輪が通過するのはおよそ800ドットから1000ドット付近の位置である等と想定できる。これにより、本実施の形態においては例えば、わだち判定部115は、これらそれぞれの座標に相当する200ドット分の微分値の集合を左右1対ずつ抽出を行う。   Specifically, for example, when it is assumed that the pixel group of the cross section is a 1000 dot horizontal line image, the differential value is obtained as a set of 1000 dot equivalent values, so the center of the lane is 500 Coordinates near the dot. Taking into consideration that the vehicle line width is about 3 m to 3.5 m on a general road, the left wheel passes through, for example, a position near about 0 dots to 200 dots in general passenger cars and large vehicles. It can be assumed that the wheel of (1) passes approximately 800 dots to approximately 1000 dots, and so on. Thus, in the present embodiment, for example, the rut determining unit 115 extracts a set of differential values for 200 dots corresponding to the coordinates of each pair on the left and right.

このように車線幅のうち特定の予め定めた領域について抽出処理を行って以下の手順での分析対象とするような処理の考え方には、原理上の利点がある。すなわち、そもそも本発明で検出や可視化対象とするわだち掘れとは、一般乗用車やとりわけ大型車が繰り返し車線内のほぼ同じ位置に車輪を乗せる形で通行を繰り返すことにより、舗装が変形もしくは磨耗して、安全快適な交通に支障を来たすようになる不具合のことを指している。   As described above, there is an advantage in principle in the concept of the processing in which the extraction processing is performed on a specific predetermined area in the lane width to be an analysis target in the following procedure. That is, rutting, which is the object of detection and visualization in the present invention, means that the pavement is deformed or worn away by repeated passing with general passenger cars and especially large vehicles repeatedly putting wheels on substantially the same position in the lane. It refers to the trouble that comes to interfere with safe and comfortable traffic.

すなわち、多くの車両が車線内の特定の位置を踏みしめるよう統計的に偏って走行を重ねることは、わだち掘れの発生原理から考えて必然であり、そのような特定位置とは予め固定的に装置内に定数として組み込むことが可能なパラメータであるから、上記述べたように固定的パラメータで車線内の特定位置の画素を抽出して処理を行うような仕組みは、応用目的に照らし合わせて、本質的な必然性を有するといえる。   That is, it is inevitable from the viewpoint of rutting occurrence principle that many vehicles run on a statistically biased basis so as to step a specific position in a lane, and such a specific position is a fixed device in advance. Since this is a parameter that can be embedded as a constant, the mechanism for extracting and processing the pixel at a specific position in the lane with fixed parameters as described above is essential in view of the application purpose. It can be said that there is

なお、本実施の形態では、左右の車輪の通過位置を端点からそれぞれ200ドットと固定的に定める例を示した。本発明はその他の実施の形態も可能であり、例えば、左の車輪は100ドットから250ドットの範囲の座標としてもよく、また、一般道路と高速道路では車線幅が異なることを踏まえて一般道路用の定数と高速道路用の定数といった異なる設定の組を準備してもよい。   In the present embodiment, an example is shown in which the passing positions of the left and right wheels are fixedly set to 200 dots from the end point. The present invention can be applied to other embodiments as well, for example, the left wheel may have coordinates in the range of 100 dots to 250 dots, and on the basis of the fact that the lane width is different between the general road and the expressway. Different sets of settings may be prepared such as constant for constant and constant for freeway.

また、元の画像の幅(断面の画素群)が1000ドットといった固定幅ではなく様々な解像度で撮影された画像を処理できるようにするため、例えば総ドット数の0%〜20%のように割合で指定することとしてもよい。   Also, for example, 0% to 20% of the total number of dots in order to be able to process images captured with various resolutions instead of fixed width such as 1000 dots in width (pixel group of cross section) of the original image. It is good also as specifying by a ratio.

次に、わだち判定部115は、前記抽出された左車輪位置の抽出結果に関して、わだち掘れが有るか無いかを片側のみ判定するサブルーチン処理を行う(手順603)。当該サブルーチンの詳細は後述する。   Next, the rut determining unit 115 performs a subroutine process of determining whether or not rutting is present on one side with respect to the extraction result of the extracted left wheel position (procedure 603). Details of the subroutine will be described later.

次に、わだち判定部115は、同様にして、前記抽出された右車輪位置の抽出結果に関して、わだち掘れが有るか無いかを片側のみ判定するサブルーチン処理を行う(手順604)。以上でわだち判定処理サブルーチンを終了する(手順605)。   Next, the rut determining unit 115 similarly performs a subroutine process of determining whether there is rutting or not on one side with respect to the extraction result of the extracted right wheel position (procedure 604). Thus, the ruth determination processing subroutine is ended (step 605).

なお、本実施の形態では、手順601で画素群の微分値を算出したのち、その結果に対して手順602で左右車輪位置に相当する部分集合を抽出する処理手順とした。本発明の範囲はこれに限るものではなく、手順601と手順602の順序を入れ替える実施としてもよい。なぜならば、1次元集合に関して、微分してから部分集合を抽出するのも、部分集合を抽出してから微分するのも、数学的には等価な処理である。   In this embodiment, after the differential value of the pixel group is calculated in step 601, the process is performed to extract a subset corresponding to the left and right wheel positions in step 602. The scope of the present invention is not limited to this, and the order of the procedure 601 and the procedure 602 may be interchanged. This is because mathematically equivalent processing is one in which the one-dimensional set is differentiated and then the subset is extracted and the subset is extracted and then differentiated.

図8は、手順603および手順604で呼び出される、片側わだち判定処理サブルーチンのフローチャートを示す。   FIG. 8 shows a flowchart of the one-sided rut determination process subroutine called in the steps 603 and 604.

まず、サブルーチンを開始すると(手順800)、わだち判定部115は、図6の手順602で抽出された左または右の車輪の微分値の1次元集合に対して、左から順に走査し、以下の判定処理を行う。すなわち、まず、前記微分値が一定以上(所定の閾値以上)のプラスの値が現れることを検出する(手順801)。これは、図7に示した微分値の例においては、符号701の箇所を検出することに相当する。もし現れなければ(不検出の場合)、検出NG、すなわち、わだち無しとして結果を返し処理を終える(手順805)。   First, when the subroutine is started (Step 800), the rut determining unit 115 scans the one-dimensional set of differential values of the left or right wheels extracted in Step 602 of FIG. Perform determination processing. That is, first, it is detected that a positive value of the predetermined differential value or more (predetermined threshold value or more) appears (procedure 801). This corresponds to detecting the portion 701 in the example of the differential value shown in FIG. If it does not appear (in the case of no detection), the result is returned as a detection NG, that is, no rumor and the processing is ended (procedure 805).

次に、手順801でプラスの値が検出された場合、前記微分値がゼロに一定程度以内に近い値(絶対値が所定の閾値以下)が連続することを検出する(手順802)。これは、図7に示した微分値の例においては、符号702の箇所を検出することに相当する。もし現れなければ、検出NG、すなわち、わだち無しとして結果を返し処理を終える(手順805)。   Next, when a positive value is detected in step 801, it is detected that a value (absolute value is equal to or less than a predetermined threshold) having a constant value close to zero within a certain range continues (step 802). This corresponds to the detection of the portion 702 in the example of the differential value shown in FIG. If it does not appear, the result is returned as a detection NG, that is, without a rumor, and the processing is finished (procedure 805).

次に、手順802でゼロに近似する値の連続が検出された場合、前記微分値が一定以下(所定の閾値以下)のマイナスの値が現れることを検出する(手順803)。これは、図7に示した微分値の例においては、符号703の箇所を検出することに相当する。もし現れなければ、検出NG、すなわち、わだち無しとして結果を返し処理を終える(手順805)。逆に現れていれば、手順801から手順803まで全ての判定が検出OKであるから、わだち有りとして結果を返し処理を終える(手順804)。   Next, when a series of values approximating to zero is detected in step 802, it is detected that a negative value of the differential value is equal to or less than a predetermined value (equal to or less than a predetermined threshold) appears (step 803). This corresponds to detecting the portion 703 in the example of the differential value shown in FIG. If it does not appear, the result is returned as a detection NG, that is, without a rumor, and the processing is finished (procedure 805). On the contrary, since all determinations from the step 801 to the step 803 are detection OK if they appear reversely, the result is returned as ruth and the processing is ended (step 804).

なお、前記「一定」を示す定数値(閾値)は、適宜定めた値でよい。なお、上記示した手順では、微分値に対して概ね「プラスの値」→「ゼロ」→「マイナスの値」のような連続的変化であるか否かを検出した。これは、換言すれば、微分する前の元の画素値に対して、画素値の急激な上昇がまず生じ、次いで少し離れた位置に、画素値の急激な下降が生じているような連続的変化であることを検出する処理と数学的に等価である。   In addition, the constant value (threshold value) which shows the said "constant" may be a value defined suitably. In the above-described procedure, it is detected whether or not the derivative value is a continuous change such as “positive value” → “zero” → “negative value”. This is, in other words, a continuous rise in which a sharp rise of the pixel value first occurs with respect to the original pixel value before differentiation, and then a sharp drop of the pixel value occurs at a position slightly apart. It is mathematically equivalent to the process of detecting a change.

以上述べた手順により、道路画像処理装置100が、ビデオカメラを車両に搭載して走行しながら撮影した動画に基づいて、わだち掘れ不具合(わだち掘れ有り)の検出を行うことができる。当該検出には、レーザー照射による測定機器や、立体視用のステレオ撮影機材などの高額な機器は不要なので、一般的で安価な機器を用いて、わだち掘れ不具合の検出を実現することができるという利点を得ることができる。   According to the above-described procedure, the road image processing apparatus 100 can detect a rutting defect (there is rutting) based on a moving image taken while driving while mounting a video camera on a vehicle. Since such detection does not require expensive equipment such as measurement equipment by laser irradiation or stereo imaging equipment for stereoscopic viewing, it is possible to realize rutting defect detection using general inexpensive equipment. You can get an advantage.

なお、描画部117は、検出結果を例えば以下のようにして地図上に表示してもよい。すなわち、描画部117は、記録媒体101に記録された動画ファイルに対応する平面の地図上に色分けした線分として前記検出結果を表示し、具体的には、わだち掘れが検出された区間は道路に沿って赤色の線を描画するなどの可視化を行っても良い。   The drawing unit 117 may display the detection result on the map, for example, as follows. That is, the drawing unit 117 displays the detection result as a color-coded line segment on the map of the plane corresponding to the moving image file recorded in the recording medium 101. Specifically, the section where rutting is detected is the road Visualization may be performed such as drawing a red line along the.

このような地図上への表示は、Google Earthなどのソフトウェアに標準的な機能として備わっているので、当該機能を利用し、前記ソフトウェアに入力するKML形式などの標準的ファイル形式で前記検出結果を出力することで当該可視化を実現できる。   Such display on a map is provided as a standard function in software such as Google Earth, so using the function, the detection result is input in a standard file format such as KML format input to the software. The output can realize the visualization.

このような表示は、道路画像処理装置 100が具備する画面 102に表示してもよいし、あるいは道路画像処理装置 100が検出結果のファイルを出力して、前記ファイルのみを表示機能を有する別の装置に入力して前記可視化を実現する構成としてもよい。   Such a display may be displayed on the screen 102 of the road image processing apparatus 100, or the road image processing apparatus 100 may output a file of the detection result and another file having a function of displaying only the file. It is good also as composition of inputting into a device and realizing the above-mentioned visualization.

一般に、画像の解析処理には処理時間がかかる一方で一度だけ実行すればよく、他方、検出結果のファイルを読み込んで画面に表示することは処理時間はかからないが何度も繰り返し実行する操作であるので、上記のように機能分担する構成とすることは実用上の利点がある。   Generally, while image analysis takes a long time, it only needs to be performed once, and reading and displaying the file as a detection result on the screen is an operation that does not take much processing time but is repeatedly executed. Therefore, the configuration in which functions are shared as described above has practical advantages.

ここまでで示した本実施の形態においては、手順305で呼び出される、わだち判定処理サブルーチンは波形変化を前記示したフローチャートに基づくプログラム処理(アルゴリズム)で検出してわだちの有無を判定する考え方に基づく実施形態を示した。本発明は、上記判定処理の方法以外にも、AI技術の一つであるディープラーニング(DL)を用いてわだち判定処理サブルーチンを構成する方法も可能である。   In the present embodiment described above, the rut determination processing subroutine called in step 305 is based on the concept of detecting a waveform change by program processing (algorithm) based on the above-described flowchart and determining presence or absence of a rut. An embodiment has been shown. The present invention is also applicable to a method of forming a ruth determination processing subroutine using deep learning (DL), which is one of AI techniques, in addition to the above determination method.

DLはニューラルネットワークの考え方に基づいて判断を行う技術である。DLを用いる際は、前もって製品の開発製造段階において、教師データと呼ばれる正解データ群をDLの学習機能に入力することで、予めDLが内部に保持するニューラルネットワークの繋がりに当該正解データ群を学習させておき、学習済みモデルを生成しておく。   DL is a technology that makes a determination based on the idea of neural networks. When using the DL, the correct data group called teacher data is input to the learning function of the DL in advance in the product development and manufacturing stage to learn the correct data group according to the connection of the neural network previously held in the DL. Let it go and generate a trained model.

これによって当該学習済みモデルを保持するDLは、以降、目的データをDLの判定機能に入力することで、予め学習させたデータと同一種のものであるかの判定結果を返すことができる。DLの利点は、対象とするデータを判定する際に波形の特徴などを人間が予め考慮する必要がなく、大量の正解データ群を事前すなわち製品の開発製造段階で学習させておくだけで、目的データの判定が高い精度で可能になるという点にある。この利点のためDLは広く用いられており、利用可能な多数のオープンソースの実装が入手可能であり、DLは容易に利用できる。   As a result, the DL holding the learned model can return the determination result as to whether it is of the same type as the previously learned data by subsequently inputting the target data to the determination function of the DL. The advantage of DL is that human beings do not have to consider in advance the characteristics of the waveform etc. when determining the data to be targeted, but only a large number of correct data groups need to be learned in advance, ie at the product development / production stage. The point is that it is possible to judge the data with high accuracy. Because of this advantage, DL is widely used, and many available open source implementations are available, and DL is readily available.

以下では、DLを用いた道路画像処理装置の具体的な構成例(変形例)を示す。   Below, the specific structural example (modification) of the road image processing apparatus using DL is shown.

図9はディープラーニングを用いた片側わだち判定処理の概要を示す。   FIG. 9 shows an outline of the one-sided rut determination process using deep learning.

本構成例では、手順305で呼び出されるわだち判定処理サブルーチンの中で、さらに手順603および手順604で呼び出される片側わだち判定処理サブルーチンを上記示した実施からDLを用いた実施へと置き換えるものとした構成例を示す。   In this configuration example, in the rut determination processing subroutine called in step 305, the one-side rut determination processing subroutine called in steps 603 and 604 is replaced with the execution shown above from the execution shown above. An example is shown.

図9(b)のフローチャート902は、手順603および手順604で呼び出される片側わだち判定処理サブルーチンのフローチャートである。わだち判定部 115は、内部に学習済みモデルを保持するDLのソフトウェアを組み込む構成とする。   A flow chart 902 of FIG. 9B is a flow chart of the one-side rut determination processing subroutine called in the steps 603 and 604. The rut determining unit 115 incorporates DL software that holds a learned model.

まず、サブルーチンを開始すると(手順920)、わだち判定部 115は、前記学習済みモデルを保持するDLのソフトウェアに前記与えられた微分値の1次元集合を入力し、わだち掘れが有るか無いかの判定結果を得る(手順921)。次に、わだち判定部 115は、当該判定結果を返却して処理を終える(手順922)。   First, when the subroutine is started (procedure 920), the rut determining unit 115 inputs the one-dimensional set of the given differential values to the software of the DL holding the learned model, and there may or may not be rutting. Obtain a determination result (procedure 921). Next, the rut determination unit 115 returns the determination result and ends the processing (procedure 922).

本構成例のポイントは、上記一連の手順で用いる当該DLのソフトウェアに、予め本道路画像処理装置100の開発製造段階において、事前に学習処理を施し、学習済みモデルを生成しておく点にある。   The point of this configuration example is that the software of the DL used in the above-described series of procedures is subjected in advance to a learning process in the development and manufacturing stages of the road image processing apparatus 100 to generate a learned model. .

図9(a)のフローチャート901は、当該事前学習処理について示したものである。 前述のとおり、DLは、予め大量の教師データをDLの学習機能に入力することで、ニューラルネットワークの繋がりを学習させ、学習済みモデルを生成し、実際に手順921のようにDLを用いた際に予め学習させたデータと同一種のものであるかの判定を高い精度で可能とする特徴を有する技術であり、かつ、その実装はオープンソース等で広汎に利用可能である。   A flowchart 901 of FIG. 9A shows the prior learning process. As described above, the DL learns the connection of the neural network by inputting a large amount of teacher data to the learning function of the DL in advance, generates a learned model, and actually uses the DL as in the procedure 921. It is a technology that has a feature that makes it possible to determine with high accuracy whether the data is of the same type as the previously learned data, and its implementation can be widely used in open source and the like.

本構成例では、上記示した一連のわだち掘れ判定手順、すなわち、図3の手順301から手順305および図6の手順601から602と同一の処理を、本道路画像処理装置100の開発製造段階において事前に行う学習処理の際にも行う。ただし、その際、手順301への入力とするのは、わだち掘れが有るか無いかが不明な道路の撮影画像ではなく、現に確実にわだち掘れが存在すると判明している地点を撮影して得られた道路の撮影画像を用いて、これを手順301への入力とする。   In this configuration example, the same series of rutting determination procedures as described above, that is, the same processes as the procedures 301 to 305 in FIG. 3 and the procedures 601 to 602 in FIG. Also in the learning process performed in advance. However, at that time, the input to the procedure 301 is not a photographed image of a road where it is unclear whether there is rutting or not, and it is obtained by photographing a point where it is known that rutting actually exists. The captured image of the road is used as an input to the procedure 301.

その結果、手順301から手順602までの一連の処理を行うことで得られた手順602の結果、すなわち、左の車輪が通過する位置および右の車輪が通過する位置の画素群に関する部分集合は、確実にわだち掘れが存在すると判明している箇所での前記集合であるから、これをDLの学習データとして用いることとし、DLに入力することで、DLが保持する学習済みモデル(学習途中のモデル)に対してさらなる学習がなされる(手順911)。   As a result, a result of the procedure 602 obtained by performing the series of processes from the procedure 301 to the procedure 602, that is, a subset regarding the pixel group where the left wheel passes and the right wheel passes is Since it is the above-mentioned set at a place where it is known that rutting is surely present, this is used as learning data of DL, and it is decided to use it as a learning data of DL. Further learning is performed (step 911).

これら一連の手順を、さまざまなわだち掘れ画像を入力として、およそ数百回から数万回程度繰り返す(手順912)。上記一連の手順によって、十分にDLの学習が進むので、本道路画像処理装置100の開発製造段階において事前に行う学習処理を完了する (手順913)。この時点でDLが保持する学習済みモデルは十分にわだち掘れの特徴について学習が進んだモデルであるので、当該DLを道路画像処理装置100の構築に用いることとする。   These series of procedures are repeated approximately several hundred times to several tens of thousands of times using various rutting images as input (procedure 912). Since the learning of the DL is sufficiently advanced by the above-described series of procedures, the learning process performed in advance in the development and manufacturing stages of the road image processing apparatus 100 is completed (procedure 913). At this point in time, the learned model held by the DL is a model in which the learning about the rutting features has been sufficiently advanced, so that the DL is used to construct the road image processing apparatus 100.

上記述べたように、事前の学習に大量の教師データを準備してDLに学習させるという手順を踏むことによって、本道路画像処理装置100を実際にわだち掘れの検出に用いる際には、上記手順921のように簡素な手順で、わだち掘れの有無の判定が可能となる。   As described above, when the road image processing apparatus 100 is actually used for rutting detection by following the procedure of preparing a large amount of teacher data for prior learning and causing the DL to learn, the above procedure With a simple procedure such as 921, it becomes possible to determine the presence or absence of rutting.

なお、既に述べたように、このようなDLの実装は多数公開されており、それらは学習機能と判定機能をAPI(Application Programming Interface)として提供しているので、当該機能を用いることで上記実施は可能である。   Note that, as described above, many such DL implementations have been made public, and they provide a learning function and a determination function as an API (Application Programming Interface). Is possible.

上記述べたDLを用いた実施であれば、適切な学習データを準備することで、高い判定精度を得られるという利点がある。   In the case of implementation using the above-described DL, there is an advantage that high determination accuracy can be obtained by preparing appropriate learning data.

なお、上記「およそ数百回から数万回程度繰り返す」とは、実際にある程度学習させた学習済みモデルを保持するDLを用いて実際に本道路画像処理装置100を構築し、実際の道路映像の分析をさせてみて、十分高い成績が得られなければさらなる追加の学習を施すという手順により実現すればよい。   In addition, the above-mentioned "It repeats about several hundred times to several tens of thousands of times" means that the road image processing apparatus 100 is actually constructed using a DL that holds a learned model that has been actually learned to some extent, and an actual road image Let's analyze it, and if it does not get high enough, it can be realized by the procedure of giving additional learning.

なお、上記述べた構成例では、手順601によって画素群の微分値を算出し、当該微分値の車輪位置に相当する部分集合をDL(学習済みモデル)に入力して学習させ、かつ、DLに判定させることとした。本発明の範囲はこれに限るものではなく、手順601を省略する、すなわち、画素値の微分値ではなく画素値そのものをDLに学習入力させ、かつ、DLに判定させる実施も可能である。この場合、わだち判定部 115は、左の車輪通過位置に相当する部分の画素(第1画素部分)、および、右の車輪通過位置に相当する部分の画素(第2画素部分)のそれぞれを、学習済みモデルに入力することで、左右それぞれのわだちの有無を判定する。   In the configuration example described above, the differential value of the pixel group is calculated in step 601, and a subset corresponding to the wheel position of the differential value is input to DL (learned model) to be learned, and It was decided to make a decision. The scope of the present invention is not limited to this, and the procedure 601 may be omitted, that is, not the differential value of the pixel value but the pixel value itself may be learned and input to the DL and determined. In this case, the rut determination unit 115 respectively generates a pixel (first pixel portion) of a portion corresponding to the left wheel passing position and a pixel (second pixel portion) of a portion corresponding to the right wheel passing position. By inputting to the learned model, it is determined whether or not each of the left and right ruts is present.

また、上記述べた構成例では、手順602によって左の車輪が通過する位置および右の車輪が通過する位置の画素群に関する部分集合を抽出し、左右それぞれの部分集合をDL(学習済みモデル)に入力して学習させ、かつ、DLに判定させることとした。本発明の範囲はこれに限るものではなく、手順601および手順602を省略する、すなわち、左右それぞれの部分集合ではなく元の画素群の集合そのものをDLに学習入力させ、かつ、DLに判定入力する実施も可能である。この場合、わだち判定部 115は、断面抽出部114が抽出した画素群を学習済みモデルに入力することで、わだちの有無を判定する。   Further, in the configuration example described above, the procedure 602 extracts a subset of the pixel group of the position where the left wheel passes and the position where the right wheel passes and extracts the left and right subsets into the DL (learned model) It was decided to input and learn, and to make DL judge. The scope of the present invention is not limited to this, and the procedure 601 and the procedure 602 are omitted, that is, not the left and right subsets but the original set of pixel groups are learned and input to the DL and the judgment input to the DL Implementation is also possible. In this case, the rut determining unit 115 determines the presence or absence of rumor by inputting the pixel group extracted by the cross-section extracting unit 114 to the learned model.

また、手順602のみを省略する、すなわち、元の画素群の微分値をDLに学習入力させ、かつ、DLに判定入力する実施も可能である。この場合、わだち判定部 115は、断面抽出部114が抽出した画素群の微分値を学習済みモデルに入力することで、わだちの有無を判定する。   In addition, it is also possible to omit only the step 602, that is, to carry out learning input of the differential value of the original pixel group to DL and judgment input to DL. In this case, the rut determination unit 115 determines the presence or absence of rumor by inputting the differential value of the pixel group extracted by the cross-section extraction unit 114 into the learned model.

上記示した一連の実施形態に加え、さらに、わだち掘れの様子に関して、道路の凹凸に即して3次元的に表示する機能を提供することもできる。具体的な構成例(変形例)を以下に示す。   In addition to the above-described series of embodiments, it is also possible to provide a function to display three-dimensionally in accordance with the unevenness of the road regarding the rutting situation. A specific configuration example (modification) is shown below.

本構成例においては、図3の手順304において、断面抽出部114は、道路横断方向に関する断面の画素群を抽出した後、さらに、当該断面の画素群を描画データ保存部 121に保存する(手順310)。上記述べたように、手順304、あるいは、手順301から304までの一連の手順は、複数の断面に関して繰り返し実施されるのであるから、描画データ保存部 121は撮影した道路の複数の個所に関する断面の画素群が保存されることとなる。   In this configuration example, in the procedure 304 of FIG. 3, after extracting the pixel group of the cross section in the road crossing direction in the procedure 304 of FIG. 3, the pixel group of the cross section is further stored in the drawing data storage unit 121 (procedure 310). As described above, since the procedure 304 or the series of procedures from the procedure 301 to the procedure 304 is repeatedly performed with respect to a plurality of cross sections, the drawing data storage unit 121 Pixel groups will be saved.

単一の断面の画素群は横軸方向の延伸を持つ1次元データ集合であり、かつ、その断面が車線進行方向すなわち縦軸方向に複数集まっているのであるから、結果として描画データ保存部 121に保存された複数の個所に関する断面の画素群は、必然的に、平面上の2次元データ集合となっている。   Since a pixel group of a single cross section is a one-dimensional data set having an extension in the horizontal axis direction, and a plurality of cross sections gather in the lane traveling direction, that is, the vertical axis direction, as a result, the drawing data storage unit 121 The pixel group of the cross section related to a plurality of places stored in is necessarily a two-dimensional data set on a plane.

描画部117は、前記保存されたデータを用いて、以下のように描画処理を行う。描画部117は、前記2次元データ集合のそれぞれの点に対して、当該箇所の画素値を高さとして読み替えた、可視化用の2次元配列を生成する。つまり、(X,Y)の配列で、値は高さを持つような配列である。前記読み替えは、例えば、単純に画素値=高さとしてもよい。   The drawing unit 117 performs drawing processing as follows using the stored data. The drawing unit 117 generates, for each point of the two-dimensional data set, a two-dimensional array for visualization in which the pixel value of the corresponding part is read as the height. That is, in the (X, Y) array, the value is an array having a height. The replacement may be, for example, simply pixel value = height.

上記手順で得られた配列は、(横,縦,高さ)の点の集合になっているから、例えばWebGLやthree.jsのような3D描画機能を有する公開されているソフトウェアを用いることで、立体表示することができる。   Since the array obtained by the above procedure is a set of (horizontal, vertical, height) points, for example, WebGL, three. Three-dimensional display can be achieved by using publicly available software having a 3D drawing function such as js.

すなわち、描画部117は、断面抽出部114により抽出された各画素群の各画素について、当該画素値を高さ方向の座標に設定し、当該画素群における当該画素の位置を横方向の座標に設定し、当該画素群の道路進行方向におけるの位置を縦方向の座標に設定し、前記設定した3次元の座標に基づいて前記道路画像を3次元で描画する。   That is, for each pixel of each pixel group extracted by the cross-section extraction unit 114, the drawing unit 117 sets the pixel value as coordinates in the height direction, and the position of the pixel in the pixel group as horizontal coordinates. The position in the road traveling direction of the pixel group is set as the coordinate in the vertical direction, and the road image is drawn in three dimensions based on the set three-dimensional coordinate.

図10は前記可視化用配列へのマッピング例を示す。符号1001は、表示対象となる可視化配列を表す。ここでは、例えば図5で例示されるようなわだち掘れが存在する断面の画素群の波形が、例えば符号1020や例えば符号1021や例えば符号1022のように可視化用配列へマッピングされ、当該配列が3D描画されている様子を示している。   FIG. 10 shows an example of mapping to the visualization array. Reference numeral 1001 denotes a visualization array to be displayed. Here, for example, the waveform of the pixel group of the cross section where rutting is present as illustrated in FIG. 5 is mapped to the array for visualization as, for example, 1020, 1021, or 1022, and the array is 3D. It shows how it is drawn.

符号1010や符号1011や符号1012は、断面の方向を示しており、もしまったく凹凸のない平坦な画像が入力されていれば、例えば符号1020のマッピングは符号1010の直線にほぼ平行するものとなる。   Reference numerals 1010, 1011 and 1012 indicate the direction of the cross section. For example, if a flat image without any unevenness is input, the mapping of, for example, the reference 1020 becomes almost parallel to the straight line of the reference 1010. .

符号1020と符号1021と符号1022のように、車線進行方向と直交して複数の断面が配置されているのは、前記示したように複数の個所に関する断面の画素群を保存して表示の対象としている様子を示している。   As indicated by reference numerals 1020, 1021 and 1022, the reason why a plurality of cross sections are arranged orthogonal to the traveling direction of the lane is the target of the display by storing the pixel group of the cross section related to a plurality of places as shown above. It shows how to

なお、前記複数の個所に関する断面の画素群が、総数が少ないために縦方向に間隔が開くことが問題となる場合には、線形補間(Z=aY+bの式による補間)などを行って、開いている部分に仮想的な頂点を補っても良い。例えば、符号1030は、上記補間の様子を示している。   If it is a problem that the pixel group in the cross section related to the plurality of places has a small total number, the interval in the vertical direction becomes a problem, linear interpolation (interpolation by the equation of Z = aY + b) or the like is performed. You may compensate the virtual vertex to the part that For example, reference numeral 1030 indicates the state of the above interpolation.

以上示した表示手順によって、わだち掘れの様子に関して、道路の凹凸に即して3次元的に表示することができ、これにより、わだち掘れの検出の様子を分かり易く可視化することができる。すなわち、わだち掘れの検出結果の状況を、平面(2次元)の地図上に表示する場合と比較して、本実施形態では、わだち掘れの検出の様子を一目で把握することができる。   According to the display procedure described above, the rutting can be displayed three-dimensionally in line with the unevenness of the road, and the rutting detection can be visualized in an easy-to-understand manner. That is, in this embodiment, the situation of rutting detection can be grasped at a glance, as compared with the case where the rutting detection result is displayed on a planar (two-dimensional) map.

また、上記表示に加えて、例えばわだち掘れが有りと判定された箇所は背景を赤色にする等、わだち掘れ判定結果そのものを重畳して表示してもよい。   Further, in addition to the above display, for example, the rutting determination result itself may be superimposed and displayed, for example, a portion where it is determined that rutting is present has a red background.

以上示したような表示は、道路画像処理装置 100が具備する画面 102に表示してもよいし、あるいは道路画像処理装置 100が処理結果(図10のマッピング例)のファイルを出力して、前記ファイルのみを表示機能を有する別の装置に入力して前記可視化を実現する構成としてもよい。特に、道路画像処理装置 100が処理結果のファイルを出力して、前記ファイルをWebサーバ上に入力し、WebサーバがWebブラウザに当該ファイルの情報を送信することによって、Webブラウザ上に描画する構成としてもよい。   The display as described above may be displayed on the screen 102 of the road image processing apparatus 100, or the road image processing apparatus 100 may output a file of the processing result (the mapping example of FIG. 10). Only the file may be input to another device having a display function to realize the visualization. In particular, the road image processing apparatus 100 outputs the file of the processing result, inputs the file on the web server, and the web server transmits the information of the file to the web browser to draw the file on the web browser. It may be

なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。   The present invention is not limited to the above embodiment, and various modifications are possible within the scope of the invention.

以上示した本実施の形態においては、わだち掘れを有る無しの2値で判定する機能を提供した。上記示した手順を改良することで、わだち掘れの有無だけでなく程度を示す値も算出することも可能である。例えば、集計部 116は手順306で1つ以上のわだち掘れ有無の判定結果に対して集計処理を行う際、閾値を超えるか否かで有無を判定するだけでなく、わだち掘れ有りと判定された個々の判定結果の個数に応じてわだち掘れの程度を示す値を出力してもよい。   In the present embodiment described above, the function of judging rutting with or without binary values is provided. By improving the above-described procedure, it is possible to calculate not only the presence or absence of rutting but also a value indicating the extent. For example, when the tabulating unit 116 tabulates one or more rutting determination results in step 306, it is determined that rutting is not only determined based on whether the threshold value is exceeded or not. A value indicating the degree of rutting may be output according to the number of individual determination results.

あるいは、例えば、わだち判定部 115は手順801で検出した微分値が一定以上のプラスの値が現れる箇所に対して、対応する微分前の画素値を取得し、その画素値に応じて
わだち掘れの程度を示す値を出力してもよい。
Alternatively, for example, with respect to a portion where a positive value of which the differential value detected in step 801 is a predetermined value or more appears, the rut determination unit 115 acquires a corresponding pixel value before differentiation, and rutting is performed according to the pixel value. A value indicating the degree may be output.

上記説明した、道路画像処理装置 100には、例えば、CPU(Central Processing Unit、プロセッサ)と、メモリと、ストレージ(HDD:Hard Disk Drive、SSD:Solid State Drive)と、通信装置と、入力装置と、出力装置とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、道路画像処理装置 100の各機能が実現される。また、道路画像処理装置 100用のプログラムは、HDD、SSD、USBメモリ、CD-ROM、DVD-ROM、MOなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。   The road image processing apparatus 100 described above includes, for example, a central processing unit (CPU), a memory, a storage (HDD: Hard Disk Drive, SSD: Solid State Drive), a communication device, and an input device. , An output device, and a general-purpose computer system can be used. In this computer system, each function of the road image processing apparatus 100 is realized by the CPU executing a predetermined program loaded on the memory. Further, the program for the road image processing apparatus 100 may be stored in a computer readable recording medium such as an HDD, an SSD, a USB memory, a CD-ROM, a DVD-ROM, an MO, or may be distributed via a network. it can.

100 :道路画像処理装置
101 :記憶媒体
102 :画面
111 :静止画取得部
112 :車線検出部
113 :鳥瞰図生成部
114 :断面抽出部
115 :わだち判定部
116 :集計部
117 :描画部
121 :描画データ保存部
100: Road image processing device
101: Storage medium
102: Screen
111: Still image acquisition unit
112: Lane detection unit
113: Bird's eye view generator
114: Cross section extraction unit
115: Ruth judgment unit
116: Summary section
117: Drawing unit
121: Drawing data storage unit

Claims (11)

道路画像を処理する道路画像処理装置であって、
前記道路画像である静止画、または前記道路画像である動画から取り出した静止画から車線領域を検出する車線検出部と、
前記車線領域の鳥瞰図画像を生成する生成部と、
前記鳥瞰図画像における道路横断方向の一次元の画素群を抽出する抽出部と、
前記画素群のわだちの有無を判定する判定部と
を有することを特徴とする道路画像処理装置。
A road image processing apparatus for processing a road image, comprising:
A lane detection unit that detects a lane area from the still image which is the road image or the still image extracted from the moving image which is the road image;
A generation unit that generates a bird's-eye view image of the lane area;
An extraction unit for extracting a one-dimensional pixel group in a cross road direction in the bird's eye view image;
A road image processing apparatus, comprising: a determination unit that determines presence or absence of a rut of the pixel group.
請求項1に記載の道路画像処理装置であって、
前記抽出部は、前記画素群を複数抽出し、
前記判定部は、前記複数の画素群の各々のわだちの有無を判定し、
前記複数の画素群の各々の判定結果を集計して、前記複数の画素群の全体のわだちの有無を判定する集計部と
を有することを特徴とする道路画像処理装置。
The road image processing apparatus according to claim 1, wherein
The extraction unit extracts a plurality of the pixel groups.
The determination unit determines the presence or absence of each of the plurality of pixel groups.
A road image processing apparatus, comprising: a tabulation unit that tabulates determination results of each of the plurality of pixel groups and determines presence or absence of a rut of the plurality of pixel groups as a whole.
請求項1または請求項2に記載の道路画像処理装置であって、
前記判定部は、
前記画素群から、左の車輪通過位置に相当する第1画素部分および右の車輪通過位置に相当する第2画素部分を抽出する車輪位置抽出部と、
前記第1画素部分および前記第2画素部分のそれぞれに対して、画素値の急激な上昇および画素値の急激な下降を検出した場合、わだちが有ると判定する検出部と
を有することを特徴とする道路画像処理装置。
The road image processing apparatus according to claim 1 or 2, wherein
The determination unit is
A wheel position extraction unit that extracts, from the group of pixels, a first pixel portion corresponding to a left wheel passing position and a second pixel portion corresponding to a right wheel passing position;
And a detection unit that determines that there is a rut when detecting a sharp rise and a sharp fall of the pixel value for each of the first pixel portion and the second pixel portion. Road image processing device.
請求項3に記載の道路画像処理装置であって、
前記検出部は、前記第1画素部分および前記第2画素部分のそれぞれの微分値に対して、当該微分値が所定の閾値以上のプラス値となり、その後、所定の閾値以下のマイナス値となることを検出した場合、わだちが有ると判定する
ことを特徴とする道路画像処理装置。
The road image processing apparatus according to claim 3, wherein
The detection unit is configured such that, with respect to differential values of the first pixel portion and the second pixel portion, the differential value becomes a plus value greater than or equal to a predetermined threshold value, and then becomes a minus value less than the predetermined threshold value. It is determined that there is a rut when it detects a road image processing apparatus.
請求項1に記載の道路画像処理装置であって、
ディープラーニング技術に基づいて、わだちが存在する道路画像から抽出された前記画素群を教師データとして学習させて生成した学習済みモデルを有し、
前記判定部は、前記画素群を前記学習済みモデルに入力することで、わだちの有無を判定する
ことを特徴とする道路画像処理装置。
The road image processing apparatus according to claim 1, wherein
It has a learned model generated by learning, as teacher data, the pixel group extracted from the road image in which ruth exists, based on deep learning technology,
The road image processing apparatus, wherein the determination unit determines the presence or absence of a rut by inputting the pixel group to the learned model.
請求項1に記載の道路画像処理装置であって、
ディープラーニング技術に基づいて、わだちが存在する道路画像から抽出された前記画素群を教師データとして学習させて生成した学習済みモデルを有し、
前記判定部は、
前記画素群から、左の車輪通過位置に相当する第1画素部分および右の車輪通過位置に相当する第2画素部分を抽出する車輪位置抽出部と、
前記第1画素部分および前記第2画素部分のそれぞれを、前記学習済みモデルに入力することで、前記第1画素部分および前記第2画素部分のわだちの有無を判定する検出部と
を有することを特徴とする道路画像処理装置。
The road image processing apparatus according to claim 1, wherein
It has a learned model generated by learning, as teacher data, the pixel group extracted from the road image in which ruth exists, based on deep learning technology,
The determination unit is
A wheel position extraction unit that extracts, from the group of pixels, a first pixel portion corresponding to a left wheel passing position and a second pixel portion corresponding to a right wheel passing position;
Providing a detection unit that determines presence or absence of the first pixel portion and the second pixel portion by inputting each of the first pixel portion and the second pixel portion to the learned model. Road image processing device characterized by
道路画像を処理する道路画像処理装置であって、
前記道路画像である静止画、または前記道路画像である動画から取り出した静止画から車線領域を検出する車線検出部と、
前記車線領域の鳥瞰図画像を生成する生成部と、
前記鳥瞰図画像における道路横断方向の一次元の画素群を複数抽出する抽出部と、
前記抽出された各画素群の各画素について、当該画素値を高さ方向の座標に設定し、当該画素群における当該画素の位置を横方向の座標に設定し、当該画素群の道路進行方向における位置を縦方向の座標に設定し、前記設定した3次元の座標に基づいて前記道路画像を3次元で描画する描画部と
を有することを特徴とする道路画像処理装置。
A road image processing apparatus for processing a road image, comprising:
A lane detection unit that detects a lane area from the still image which is the road image or the still image extracted from the moving image which is the road image;
A generation unit that generates a bird's-eye view image of the lane area;
An extraction unit for extracting a plurality of one-dimensional pixel groups in the cross road direction in the bird's eye view image;
For each pixel of each of the extracted pixel groups, the pixel value is set to the coordinate in the height direction, and the position of the pixel in the pixel group is set to the coordinate in the lateral direction. A road image processing apparatus comprising: a drawing unit which sets a position to vertical coordinates and draws the road image in three dimensions based on the set three-dimensional coordinates.
コンピュータが行う、道路画像を処理する道路画像処理方法であって、
前記道路画像である静止画、または前記道路画像である動画から取り出した静止画から車線領域を検出する車線検出ステップと、
前記車線領域の鳥瞰図画像を生成する生成ステップと、
前記鳥瞰図画像における道路横断方向の一次元の画素群を抽出する抽出ステップと、
前記画素群のわだちの有無を判定する判定ステップと
を行うことを特徴とする道路画像処理方法。
A road image processing method for processing a road image performed by a computer, comprising:
A lane detection step of detecting a lane area from the still image as the road image or the still image extracted from the moving image as the road image;
Generating a bird's-eye view image of the lane area;
Extracting a one-dimensional pixel group in a cross road direction in the bird's eye view image;
A road image processing method comprising the steps of: determining a presence or absence of a rut of the pixel group.
コンピュータが行う、道路画像を処理する道路画像処理方法であって、
前記道路画像である静止画、または前記道路画像である動画から取り出した静止画から車線領域を検出する車線検出ステップと、
前記車線領域の鳥瞰図画像を生成する生成ステップと、
前記鳥瞰図画像における道路横断方向の一次元の画素群を抽出する抽出ステップと、
前記抽出された各画素群の各画素について、当該画素値を高さ方向の座標に設定し、当該画素群における当該画素の位置を横方向の座標に設定し、当該画素群の道路進行方向における位置を縦方向の座標に設定し、前記設定した3次元の座標に基づいて前記道路画像を3次元で描画する描画ステップと
を行うことを特徴とする道路画像処理方法。
A road image processing method for processing a road image performed by a computer, comprising:
A lane detection step of detecting a lane area from the still image as the road image or the still image extracted from the moving image as the road image;
Generating a bird's-eye view image of the lane area;
Extracting a one-dimensional pixel group in a cross road direction in the bird's eye view image;
For each pixel of each of the extracted pixel groups, the pixel value is set to the coordinate in the height direction, and the position of the pixel in the pixel group is set to the coordinate in the lateral direction. 7. A road image processing method comprising: setting a position to vertical coordinates; and drawing the road image in three dimensions based on the set three-dimensional coordinates.
コンピュータを、請求項1から7のいずれか1項に記載の道路画像処理装置として機能させるための道路画像処理プログラム。   A road image processing program for causing a computer to function as the road image processing device according to any one of claims 1 to 7. コンピュータを、請求項1から7のいずれか1項に記載の道路画像処理装置として機能させるための道路画像処理プログラムを記録した記録媒体。   A recording medium recording a road image processing program for causing a computer to function as the road image processing device according to any one of claims 1 to 7.
JP2017225800A 2017-11-24 2017-11-24 Road image processing device, road image processing method, road image processing program, and recording medium Active JP6929207B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017225800A JP6929207B2 (en) 2017-11-24 2017-11-24 Road image processing device, road image processing method, road image processing program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017225800A JP6929207B2 (en) 2017-11-24 2017-11-24 Road image processing device, road image processing method, road image processing program, and recording medium

Publications (2)

Publication Number Publication Date
JP2019096121A true JP2019096121A (en) 2019-06-20
JP6929207B2 JP6929207B2 (en) 2021-09-01

Family

ID=66971801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017225800A Active JP6929207B2 (en) 2017-11-24 2017-11-24 Road image processing device, road image processing method, road image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP6929207B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191095A (en) * 2018-04-27 2019-10-31 福田道路株式会社 Pavement damage diagnosis system
KR102379970B1 (en) * 2020-09-23 2022-03-29 주식회사 올룰로 System for offering driving status of personal mobility
WO2023038445A1 (en) * 2021-09-07 2023-03-16 포티투닷 주식회사 Device and method for generating lane polyline using neural network model

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357387A (en) * 2000-06-15 2001-12-26 Hitachi Ltd On-vehicle image processing camera device
JP2017161997A (en) * 2016-03-07 2017-09-14 トヨタ自動車株式会社 Peripheral vehicle recognition apparatus
JP2017533482A (en) * 2015-09-10 2017-11-09 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Lane data processing method, apparatus, storage medium and equipment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357387A (en) * 2000-06-15 2001-12-26 Hitachi Ltd On-vehicle image processing camera device
JP2017533482A (en) * 2015-09-10 2017-11-09 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Lane data processing method, apparatus, storage medium and equipment
JP2017161997A (en) * 2016-03-07 2017-09-14 トヨタ自動車株式会社 Peripheral vehicle recognition apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191095A (en) * 2018-04-27 2019-10-31 福田道路株式会社 Pavement damage diagnosis system
KR102379970B1 (en) * 2020-09-23 2022-03-29 주식회사 올룰로 System for offering driving status of personal mobility
KR20220040426A (en) * 2020-09-23 2022-03-30 주식회사 올룰로 System for offering driving status of personal mobility
KR102529609B1 (en) * 2020-09-23 2023-05-09 주식회사 올룰로 System for offering driving status of personal mobility
WO2023038445A1 (en) * 2021-09-07 2023-03-16 포티투닷 주식회사 Device and method for generating lane polyline using neural network model

Also Published As

Publication number Publication date
JP6929207B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
Dhiman et al. Pothole detection using computer vision and learning
WO2021004548A1 (en) Vehicle speed intelligent measurement method based on binocular stereo vision system
WO2021004312A1 (en) Intelligent vehicle trajectory measurement method based on binocular stereo vision system
CN111855664B (en) Adjustable three-dimensional tunnel defect detection system
CN112802021B (en) Urban bridge road diagnosis method and system based on digital twin technology
US20210350185A1 (en) System and method for generating large simulation data sets for testing an autonomous driver
US9607220B1 (en) Image-based vehicle speed estimation
CN104575003B (en) A kind of vehicle speed detection method based on traffic surveillance videos
CN104376297A (en) Detection method and device for linear indication signs on road
JP6929207B2 (en) Road image processing device, road image processing method, road image processing program, and recording medium
CN114359181B (en) Intelligent traffic target fusion detection method and system based on image and point cloud
JP6678267B1 (en) Road defect detecting device, road defect detecting method, and road defect detecting program
CN106978774A (en) A kind of road surface pit automatic testing method
US20150302611A1 (en) Vehicle dimension estimation from vehicle images
JP2016217084A (en) Road surface condition measurement system, road surface condition measurement method and road surface condition measurement program
JP6653361B2 (en) Road marking image processing apparatus, road marking image processing method, and road marking image processing program
CN103345542A (en) Method for marking bridge disease based on three-dimensional visualization technology
JP2011134207A (en) Drive recorder and map generation system
CN112070756B (en) Three-dimensional road surface disease measuring method based on unmanned aerial vehicle oblique photography
CN109886064B (en) Method for determining the boundary of a drivable space
JP2019137989A (en) Structure deformation detector
CN114971166A (en) Lightweight road pavement service quality inspection system
JP6975677B2 (en) Pavement damage diagnostic system
EP4250245A1 (en) System and method for determining a viewpoint of a traffic camera
Guan et al. Multi-scale asphalt pavement deformation detection and measurement based on machine learning of full field-of-view digital surface data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210810

R150 Certificate of patent or registration of utility model

Ref document number: 6929207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250