JP2023064793A - Road surface deterioration detection device and road surface deterioration detection method - Google Patents
Road surface deterioration detection device and road surface deterioration detection method Download PDFInfo
- Publication number
- JP2023064793A JP2023064793A JP2021175138A JP2021175138A JP2023064793A JP 2023064793 A JP2023064793 A JP 2023064793A JP 2021175138 A JP2021175138 A JP 2021175138A JP 2021175138 A JP2021175138 A JP 2021175138A JP 2023064793 A JP2023064793 A JP 2023064793A
- Authority
- JP
- Japan
- Prior art keywords
- road surface
- lane
- surface deterioration
- information
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 182
- 230000006866 deterioration Effects 0.000 title claims abstract description 165
- 238000000605 extraction Methods 0.000 claims abstract description 55
- 238000003384 imaging method Methods 0.000 claims abstract description 26
- 230000005540 biological transmission Effects 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 19
- 239000000284 extract Substances 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 30
- 238000012545 processing Methods 0.000 description 26
- 238000003708 edge detection Methods 0.000 description 24
- 238000010801 machine learning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 230000007547 defect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- YREOLPGEVLLKMB-UHFFFAOYSA-N 3-methylpyridin-1-ium-2-amine bromide hydrate Chemical compound O.[Br-].Cc1ccc[nH+]c1N YREOLPGEVLLKMB-UHFFFAOYSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Road Repair (AREA)
Abstract
Description
本願は、路面劣化検出装置および路面劣化検出方法に関するものである。 The present application relates to a road surface deterioration detection device and a road surface deterioration detection method.
道路、橋梁、施設等の老朽化に伴い、建造物のメンテナンスを効率的に行うことが求められている。建造物のメンテナンスを実施するためには、建造物の不具合を発見する作業が必要になるが、目視での確認では定量的な評価と網羅的な解析は困難である。そのため、機械による自動検出が普及しつつある。自動検出を行う装置として、建造物の表面に沿って移動する移動体に搭載された撮像装置で続けて撮像され、表面を含む領域が撮像された画像を取得する画像取得部と、画像取得部が取得した画像を分割し、画像の一部分である部分画像を複数出力する部分画像生成部と、部分画像生成部が出力した部分画像の各々について、部分画像中の表面に現れた不具合を判定する状態判定部とを備えた情報処理装置が提案されている(例えば、特許文献1参照)。 With the aging of roads, bridges, facilities, etc., efficient maintenance of buildings is required. In order to carry out building maintenance, it is necessary to find defects in the building, but it is difficult to perform quantitative evaluation and comprehensive analysis by visual confirmation. Therefore, automatic detection by machines is becoming popular. An image acquisition unit that acquires an image of an area including the surface of the building continuously captured by an imaging device mounted on a moving body that moves along the surface of the building as a device for automatic detection, and an image acquisition unit. divides the acquired image and outputs a plurality of partial images which are part of the image; An information processing apparatus including a state determination unit has been proposed (see Patent Document 1, for example).
特許文献1に示された情報処理装置では、画像取得部が取得した画像から状態判定部において不具合を判定している。しかしながら、移動体がトンネル内にある場合など、移動体の位置あるいは周囲の状況によって画像データが変化するため、常に精度よく検出を行うことはできないという課題があった。 In the information processing apparatus disclosed in Patent Literature 1, the state determination section determines a defect from the image acquired by the image acquisition section. However, when the moving object is in a tunnel, the image data changes depending on the position of the moving object or the circumstances of the surroundings.
本願は、上述の課題を解決するためになされたものであり、精度よく路面劣化を検出する路面劣化検出装置および路面劣化検出方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present application has been made to solve the above-described problems, and it is an object of the present invention to provide a road surface deterioration detection device and a road surface deterioration detection method that accurately detect road surface deterioration.
本願に開示される路面劣化検出装置は、自車に搭載され路面を含む画像を取得する撮像部と、自車の位置である自車位置の情報を取得する自車位置情報取得部と、自車位置を含む領域の地図情報を取得する地図情報取得部と、画像から路面の車線を区分するレーンマークを検出し、レーンマークを用いて画像から車線領域画像を抽出する車線領域抽出部と、自車位置および地図情報から、あるいは、レーンマークから、自車が走行する自車走行車線を判定する自車走行車線判定部と、車線領域画像から検出領域画像を抽出する検出領域抽出部と、検出領域画像から路面劣化を検出する路面劣化検出部とを備え、地図情報は、少なくとも道路の車線数を含む道路情報および地図上の位置の属性情報を含み、検出領域抽出部は、自車位置、道路情報および自車走行車線の情報を用いて車線領域画像から検出領域画像を抽出し、路面劣化検出部は、自車位置および属性情報をもとに路面劣化を検出するときの検出基準を変更することを特徴とする。 The road surface deterioration detection device disclosed in the present application includes an imaging unit that is mounted on a vehicle and acquires an image including the road surface, a vehicle position information acquisition unit that acquires vehicle position information that is the position of the vehicle, and a map information acquisition unit that acquires map information of an area including a vehicle position; a lane area extraction unit that detects lane marks that separate lanes on a road surface from an image and extracts a lane area image from the image using the lane marks; a vehicle driving lane determination unit that determines a vehicle driving lane in which the vehicle is traveling from the vehicle position and map information or from lane marks; a detection area extraction unit that extracts a detection area image from the lane area image; a road surface deterioration detection unit that detects road surface deterioration from the detection area image, the map information includes road information including at least the number of lanes on the road and attribute information of the position on the map, and the detection area extraction unit detects the vehicle position. , the road information and information on the lane in which the vehicle is traveling are used to extract a detection area image from the lane area image. Characterized by changing.
本願に開示される路面劣化検出装置は、地図情報は、少なくとも道路の車線数を含む道路情報および地図上の位置の属性情報を含み、検出領域抽出部は、自車位置、道路情報および自車走行車線の情報を用いて車線領域画像から検出領域画像を抽出し、路面劣化検出部は、自車位置および属性情報をもとに路面劣化を検出するときの検出基準を変更するので、精度よく路面劣化を検出することができる。 In the road surface deterioration detection device disclosed in the present application, the map information includes road information including at least the number of lanes on the road and attribute information of the position on the map, and the detection area extraction unit extracts the vehicle position, the road information, and the vehicle The detection area image is extracted from the lane area image using the information of the driving lane, and the road surface deterioration detection unit changes the detection criteria for detecting road surface deterioration based on the vehicle position and attribute information. Road deterioration can be detected.
以下、本願を実施するための実施の形態に係る路面劣化検出装置について、図面を参照して詳細に説明する。なお、各図において同一符号は同一もしくは相当部分を示している。 Hereinafter, a road surface deterioration detection device according to an embodiment for carrying out the present application will be described in detail with reference to the drawings. In each figure, the same reference numerals denote the same or corresponding parts.
実施の形態1.
図1は、実施の形態1による路面劣化検出装置100の構成を示すブロック図である。路面劣化検出装置100は、撮像部1、自車位置情報取得部2、地図情報取得部3、車線領域抽出部4、自車走行車線判定部5、検出領域抽出部6、路面劣化検出部7、検出結果情報送信部8および路面劣化警報部10を備えている。路面劣化警報部10は、警報判定部11および警報発信部12を備えている。警報発信部12は、画像生成部13、画像出力部14、音声生成部15、音声出力部16および振動発生部17を備えている。
Embodiment 1.
FIG. 1 is a block diagram showing the configuration of a road surface
撮像部1は、自車に搭載され路面を含む画像を取得する車載カメラである。自車位置情報取得部2は、自車の位置である自車位置の情報を取得するロケータである。地図情報取得部3は、自車位置情報取得部2から取得した自車位置の情報を用いて、地図情報データベースから自車位置を含む自車の周辺の領域の地図情報を取得する。車線領域抽出部4は、自車位置情報取得部2から取得した自車位置の情報と地図情報取得部3から取得した地図情報とを用いて、撮像部1から取得した画像から路面を区分するレーンマークを検出し、レーンマークを用いて撮像部1から取得した画像から車線領域画像を抽出する。自車走行車線判定部5は、自車位置情報取得部2から取得した自車位置情報と地図情報取得部3から取得した地図情報とから、あるいは、車線領域抽出部4から取得したレーンマークから、自車が走行する自車走行車線を判定する。 The imaging unit 1 is an in-vehicle camera that is mounted on the vehicle and acquires an image including the road surface. The vehicle position information acquisition unit 2 is a locator that acquires vehicle position information, which is the position of the vehicle. The map information acquisition unit 3 uses the information of the vehicle position acquired from the vehicle position information acquisition unit 2 to acquire map information of the area around the vehicle including the vehicle position from the map information database. The lane area extraction unit 4 uses the vehicle position information acquired from the vehicle position information acquisition unit 2 and the map information acquired from the map information acquisition unit 3 to segment the road surface from the image acquired from the imaging unit 1. A lane mark is detected, and a lane area image is extracted from the image acquired from the imaging unit 1 using the lane mark. The vehicle traveling lane determination unit 5 determines the vehicle position information from the vehicle position information acquisition unit 2 and the map information acquired from the map information acquisition unit 3, or from the lane mark acquired from the lane area extraction unit 4. , determine the own vehicle driving lane in which the own vehicle is traveling.
検出領域抽出部6は、自車位置情報取得部2から取得した自車位置の情報と、地図情報取得部3から取得した地図情報と、自車走行車線判定部5から取得した自車走行車線の情報とを用いて、車線領域抽出部4から取得した車線領域画像から検出領域画像を抽出する。路面劣化検出部7は、自車位置情報取得部2から取得した自車位置の情報と、地図情報取得部3から取得した地図情報とを用いて、検出領域抽出部6から取得した検出領域画像から路面劣化を検出する。検出結果情報送信部8は、路面劣化検出部7が検出した路面劣化の情報を、路面劣化検出装置100の外部に送信する。
The detection area extracting unit 6 extracts the vehicle position information obtained from the vehicle position information obtaining unit 2, the map information obtained from the map information obtaining unit 3, and the vehicle driving lane obtained from the vehicle driving lane determination unit 5. A detection area image is extracted from the lane area image acquired from the lane area extraction unit 4 using the information of . The road surface deterioration detection unit 7 uses the vehicle position information acquired from the vehicle position information acquisition unit 2 and the map information acquired from the map information acquisition unit 3 to generate the detection area image acquired from the detection area extraction unit 6. to detect road surface deterioration. The detection result
路面劣化警報部10は、路面劣化検出部7によって検出された路面劣化の情報および自車走行車線判定部5から取得した自車走行車線の情報をもとに、警報を発信する。警報判定部11は、路面劣化検出部7によって検出された路面劣化の情報および自車走行車線判定部5から取得した自車走行車線の情報をもとに警報通知レベルを判定し、路面劣化が自車走行車線にあるときに警報通知レベルとして警報信号を出力し、路面劣化が自車走行車線にないときに警報通知レベルとして注意信号を出力する。警報発信部12は、警報判定部11から取得した警報通知レベルをもとに警報を発信する。画像生成部13は、警報判定部11から取得した警報通知レベルをもとに警報画像を生成する。画像出力部14は、画像生成部13から取得した警報画像を表示する。音声生成部15は、警報判定部11から取得した警報通知レベルをもとに警報音声を生成する。音声出力部16は、音声生成部15から取得した警報音声を出力する。振動発生部17は、警報判定部11から取得した警報通知レベルをもとに振動を発生させる。警報発信部12は、画像生成部13および画像出力部14を備えた画像警報発信部と、音声生成部15および音声出力部16を備えた音声警報発信部と、振動発生部17との、少なくとも1つを備えていればよい。
The road surface
次に、実施の形態1による路面劣化検出装置100の動作について説明する。図2は、実施の形態1による路面劣化検出装置100の動作を説明するフローチャートである。ステップS01は撮像ステップであり、ステップS02は自車位置情報取得ステップであり、ステップS03は地図情報取得ステップであり、ステップS04およびステップS05は車線領域抽出ステップであり、ステップS06は自車走行車線判定ステップである。ステップS07、ステップS08およびステップS09は、検出領域抽出ステップである。ステップS10およびステップS11は路面劣化検出ステップである。
Next, the operation of the road surface
ステップS01では、撮像部1は、路面を含む自車の周辺の画像を取得し、取得した画像を車線領域抽出部4に出力し、ステップS02に進む。図3は、撮像部1を説明するための図である。図3は、自車200に搭載された撮像部1が、自車200の前方すなわち自車200の進行方向を撮影している様子を示している。図3に示す例では、自車200はレーンマーク21、22、23,24によって示された3つの車線のうち中央の車線を走行しており、中央の車線に路面劣化30がある。撮像部1の画角θcは、例えば120度とする。ただし、撮像部1の画角θcは、120度に限るものではない。
In step S01, the imaging unit 1 acquires an image of the surroundings of the vehicle including the road surface, outputs the acquired image to the lane area extraction unit 4, and proceeds to step S02. FIG. 3 is a diagram for explaining the imaging unit 1. As shown in FIG. FIG. 3 shows how the imaging unit 1 mounted on the
ステップS02では、自車位置情報取得部2は、自車200の位置である自車位置の情報を取得し、地図情報取得部3、車線領域抽出部4、自車走行車線判定部5、検出領域抽出部6および路面劣化検出部7に出力し、ステップS03に進む。自車位置情報取得部2は、自車200に搭載されている。自車位置情報取得部2は、自車位置の情報を取得する高精度ロケータ(HDL:High-Definition Locator)であり、例えば、位置情報が誤差30cm以下のものである。自車位置情報取得部2は、自車200の緯度および経度の位置情報が正確に観測できるGPS(Global Positioning System)受信機でもよい。
In step S02, the vehicle position information acquisition unit 2 acquires vehicle position information, which is the position of the
ステップS03では、地図情報取得部3は、ステップS02で得られた自車位置の情報をもとに、自車位置を含む領域の地図情報を取得し、車線領域抽出部4、自車走行車線判定部5、検出領域抽出部6および路面劣化検出部7に出力し、ステップS04に進む。図4は、地図情報取得部3における地図情報の取得を説明するための図である。地図情報取得部3は、インターネット18を介して地図情報が格納されている地図情報データベース19へアクセスすることにより、自車位置を含む領域の地図情報を得る。地図情報データベース19に格納されている地図情報は、地図上に示された位置の属性情報として、一般道、高速道路、サービスエリア、私有地などのどのような場所であるかという情報を含んでいる。また、地図情報取得部3が取得する地図情報は、地図上に示された道路の道路情報を含んでおり、道路情報は、例えば、車線数、車線幅、工事中の車線の情報、渋滞中の車線の情報、中央分離帯の有無の情報である。よって、地図情報取得部3が取得する地図情報は、自車位置の属性情報および自車200が走行する道路の道路情報を含んでいる。なお、例えば、自車200に搭載したメモリにあらかじめ地図情報を格納しておき、地図情報取得部3がメモリにアクセスすることによって地図情報を取得するなど、地図情報取得部3が地図情報を取得する方法はどのようなものであっても構わない。
In step S03, the map information acquisition unit 3 acquires map information of an area including the vehicle position based on the information of the vehicle position obtained in step S02. It is output to the determination section 5, the detection area extraction section 6, and the road surface deterioration detection section 7, and the process proceeds to step S04. FIG. 4 is a diagram for explaining acquisition of map information by the map information acquisition unit 3. As shown in FIG. The map information acquisition unit 3 accesses the
ステップS04では、車線領域抽出部4は、ステップS02で得られた自車位置の情報と、ステップS03で得られた地図情報とから、自車200が走行している道路の車線数を取得し、ステップS05に進む。例えば、図3に示す例においては、ステップS04において車線領域抽出部4において取得される車線数は「3」となる。
In step S04, lane area extraction unit 4 acquires the number of lanes of the road on which
ステップS05では、車線領域抽出部4は、ステップS04で得られた車線数の情報を用いて、撮像部1において取得された画像から車線領域画像を抽出し、検出領域抽出部6に出力し、ステップS06に進む。図5は、図3に示す例において撮像部1において取得された画像の一部を示す図である。車線領域抽出部4は、撮像部1において取得された図5に示された画像から、画像処理によって路面の車線を区分するレーンマーク21、22、23,24を検出する。画像処理によってレーンマーク21、22、23,24を検出するときに、ステップS04において得られた車線数から検出するレーンマークの数の上限値を設定して、レーンマークを検出する。例えば、ステップS04において車線数として「3」が得られたときは、検出するレーンマークの数は最大で「4」となる。レーンマークの検出は、例えば、ソーベル(Sobel)フィルタあるいはキャニー(Canny)フィルタなどによって画像上の各画素の輝度または彩度の勾配情報からエッジを検出するエッジ検出処理を用いる。 In step S05, the lane area extraction unit 4 extracts a lane area image from the image acquired by the imaging unit 1 using the information on the number of lanes obtained in step S04, and outputs the lane area image to the detection area extraction unit 6, Proceed to step S06. FIG. 5 is a diagram showing a part of the image acquired by the imaging unit 1 in the example shown in FIG. The lane area extraction unit 4 detects lane marks 21, 22, 23, and 24 that separate the lanes on the road surface from the image shown in FIG. When the lane marks 21, 22, 23, and 24 are detected by image processing, the upper limit of the number of lane marks to be detected is set based on the number of lanes obtained in step S04, and the lane marks are detected. For example, when "3" is obtained as the number of lanes in step S04, the maximum number of detected lane marks is "4". Lane mark detection uses, for example, edge detection processing for detecting edges from luminance or saturation gradient information of each pixel on the image using a Sobel filter or a Canny filter.
地図情報は、地図上に示された位置の属性情報として一般道、高速道路、サービスエリア、私有地などのどのような場所であるかという情報を含んでおり、自車位置と地図情報とから自車位置の属性情報を取得することができる。車線領域抽出部4は、ステップS02で得られた自車位置の情報と、ステップS03で得られた地図情報とから、自車位置の属性情報を取得し、自車位置の属性情報に応じてエッジ検出処理の検出基準である2つの閾値を変更する。図6は、地図上に示された位置の属性情報について説明するための図である。図6では、自車200が一般道61からトンネル63を通過し、一般道62に移動する例を示している。自車200が一般道61あるいは一般道62を走行しているときは自車位置の属性情報は「一般道」となり、自車200がトンネル63を走行しているときは自車位置の属性情報は「トンネル」となる。図7は、自車位置の属性情報とエッジ検出処理の検出基準である2つの閾値との関係を示す図である。車線領域抽出部4は、図7に示すテーブルに従って、図6において自車200が一般道61あるいは一般道62を走行しているときはエッジ検出処理の2つの閾値を(60、130)に設定してエッジ検出処理を行い、自車200がトンネル63を走行しているときはエッジ検出処理の2つの閾値を(30、70)に設定してエッジ検出処理を行う。なお、図7に示した値は一例であり、属性情報とエッジ検出処理の閾値の関係は、エッジ検出処理の2つの閾値は自車位置においてレーンマークが検出しやすい値であればよい。
The map information includes information such as general roads, highways, service areas, private land, etc. as attribute information of the position shown on the map. Attribute information of the car position can be acquired. Lane area extraction unit 4 acquires the attribute information of the vehicle position from the information of the vehicle position obtained in step S02 and the map information obtained in step S03, and according to the attribute information of the vehicle position, Two thresholds, which are detection criteria for edge detection processing, are changed. FIG. 6 is a diagram for explaining the attribute information of the positions shown on the map. FIG. 6 shows an example in which the
車線領域抽出部4におけるレーンマークの検出は、エッジ検出処理に限るものではなく、機械学習を用いた検出など、レーンマークを検出できる処理であればどのようなものでもよい。例えば、レーンマークの検出に機械学習を用いる場合は、自車位置の属性情報に応じて機械学習の検出基準である教師データを変更する。このように、自車位置の属性情報をもとにレーンマークを検出するときの検出基準を変更することにより、レーンマークをより正確に検出することができ、レーンマークの未検知あるいは誤検知を抑制することができる。その結果、路面劣化をより正確に検出することができる。 The detection of lane marks in the lane area extraction unit 4 is not limited to edge detection processing, and any processing that can detect lane marks, such as detection using machine learning, may be used. For example, when machine learning is used to detect lane marks, teacher data, which is a detection criterion for machine learning, is changed according to the attribute information of the vehicle position. In this way, by changing the detection criteria for lane mark detection based on the attribute information of the vehicle's position, it is possible to detect lane marks more accurately and prevent undetected or erroneous detection of lane marks. can be suppressed. As a result, road surface deterioration can be detected more accurately.
図8は、車線領域抽出部4においてエッジ検出処理の閾値の決定方法の別の一例を説明するための図である。車線領域抽出部4におけるレーンマークの検出をエッジ検出処理で行うとき、図8に示すように、撮像部1から取得した画像において輝度検出領域56を設定し、輝度検出領域56における輝度の平均値を求め、求めた輝度の平均値に応じてエッジ検出処理の2つの閾値を変更してもよい。また、輝度検出領域56における明度の値あるいは輝度検出領域56における彩度の値に応じて、エッジ検出処理の2つの閾値を変更してもよい。
FIG. 8 is a diagram for explaining another example of a method of determining a threshold value for edge detection processing in the lane area extraction unit 4. In FIG. When detection of lane marks in the lane area extraction unit 4 is performed by edge detection processing, as shown in FIG. may be obtained, and the two thresholds for edge detection processing may be changed according to the obtained average luminance value. Also, the two thresholds for the edge detection process may be changed according to the brightness value in the
次に、車線領域抽出部4は、撮像部1において取得された図5に示された画像から、検出されたレーンマーク21、22、23、24と、上限ライン41と、下限ライン42とで囲まれたそれぞれの領域の画像を、車線領域画像51、52、53として抽出し、検出領域抽出部6に出力する。車線領域画像の抽出は、検出されたレーンマーク21、22、23、24を境として、車線領域画像を切り分けるものとする。上限ライン41および下限ライン42はあらかじめ定められたものであり、例えば、上限ライン41は撮像部1において取得された画像の1/2の高さのラインとし、下限ライン42は撮像部1において取得された画像の下端のラインとする。上限ライン41および下限ライン42は、上記に限るものではなく、高さまたは傾きが変化してもよく、直線でなくてもよく、レーンマーク21、22、23、24と上限ライン41と下限ライン42とで囲まれた領域のそれぞれの画像を車線領域画像として抽出できるものであればよい。複数の車線を1つの領域とするのではなく、例えば、図5に示された3つの車線領域画像51、52、53を区別して抽出することにより、自車位置および地図情報から得られる情報を用いて、それぞれの車線の位置関係、例えば、自車走行車線か否か、対向車線か否かなどを、それぞれの車線において判断することができ、後述の検出領域抽出部6において必要な領域の車線領域画像のみを検出領域画像として抽出することができる。
Next, the lane area extraction unit 4 extracts the detected lane marks 21, 22, 23, and 24, the
ステップS06では、自車走行車線判定部5は、ステップS02で得られた自車位置およびステップS03で得られた地図情報から、自車200が走行する自車走行車線を判定し、検出領域抽出部6および警報判定部11に出力し、ステップS07に進む。地図情報は、道路情報として少なくとも道路の車線数を含んでおり、道路情報として道路の車線幅を含んでいてもよい。地図上の道路上の自車位置と、自車位置の道路の車線数とから、自車200が走行する自車走行車線を判定することができる。自車走行車線の判定には、自車位置の道路の車線幅の情報を用いてもよい。なお、ステップS05において抽出された車線領域画像が1つのみの場合は、抽出された車線領域画像が示す車線を自車走行車線とする。
In step S06, vehicle driving lane determination unit 5 determines the vehicle driving lane in which
あるいは、ステップS06では、自車走行車線判定部5は、車線領域抽出部4において検出されたレーンマーク21、22、23、24の情報を用いて自車200が走行する自車走行車線を判定してもよい。自車200の進行方向の路面を撮影した図5に示す例では、図5に示す画像の上下方向に対するレーンマーク21、22、23、24のそれぞれの傾きをθ1、θ2、θ3、θ4とすると、レーンマーク21、22は正の傾きを持っておりレーンマーク23、24は負の傾きを持っているといえる。このときに、正の勾配を持ったレーンマーク22と負の勾配を持ったレーンマーク23に挟まれた車線領域画像52の車線を、自車両走行車線と判定する。このように、ステップS06では、自車走行車線判定部5は、車線領域抽出部4において検出されたレーンマーク21、22、23、24のそれぞれの傾きの違いから、自車走行車線を判定してもよい。なお、ステップS05において検出されたレーンマークが2つであり、抽出された車線領域画像が1つのみの場合は、抽出された車線領域画像の車線を自車走行車線とする。
Alternatively, in step S06, the own vehicle traveling lane determination unit 5 uses the information of the lane marks 21, 22, 23, and 24 detected by the lane area extraction unit 4 to determine the own vehicle traveling lane in which the
ステップS07では、検出領域抽出部6は、ステップS02で得られた自車位置と、ステップS03で得られた地図情報と、ステップS06で得られた自車走行車線の情報とを用いて、ステップS05で得られた車線領域画像から検出領域画像を抽出し、ステップS08に進む。ステップS03で得られた地図情報は、自車200が走行する道路の道路情報を含んでいる。よって、ステップS07では、検出領域抽出部6は、自車位置と地図情報に含まれる道路情報とから自車200が走行する道路の道路情報を取得し、自車200が走行する道路の道路情報を用いて検出領域画像を抽出する。
In step S07, the detection area extracting unit 6 uses the vehicle position obtained in step S02, the map information obtained in step S03, and the vehicle driving lane information obtained in step S06 to perform step A detection area image is extracted from the lane area image obtained in S05, and the process proceeds to step S08. The map information obtained in step S03 includes road information of the road on which
図9は、実施の形態1における検出領域抽出部6の動作を説明するための図である。図9は、ステップS05において車線領域画像51、52、53aの3つの車線領域画像が抽出され、ステップS06において車線領域画像52の車線が自車走行車線と判定された例を示している。検出領域抽出部6は、例えば、自車200が走行する道路の道路情報として車線領域画像53aの車線が工事中であるという情報を取得した場合、車線領域画像51および車線領域画像52を検出領域画像として抽出し、車線領域画像53aは検出領域画像としては抽出しない。図10は、実施の形態1における検出領域抽出部6の動作を説明するための別の一例を示した図である。図10は、ステップS05においてレーンマーク21、22、23、25、26から車線領域画像51、52、54、55の4つの画像が抽出され、ステップS06において車線領域画像52の車線が自車走行車線と判定された例を示している。検出領域抽出部6は、例えば、自車200が走行する道路の道路情報として、自車200が走行する道路の中央に中央分離帯27が敷設されているという情報を取得した場合、車線領域画像51および車線領域画像52を検出領域画像として抽出し、対向車線に位置する車線領域画像54および車線領域画像55は検出領域画像としては抽出しない。
FIG. 9 is a diagram for explaining the operation of the detection area extraction unit 6 according to the first embodiment. FIG. 9 shows an example in which three
図11は、車線の道路情報と抽出領域画像として抽出するか否かとの関係を示す図である。例えば、図11に示すテーブルをあらかじめ記憶しておき、検出領域抽出部6は、車線の道路情報と図11に示すテーブルとから、それぞれの車線領域画像を検出領域画像として抽出するかどうかを判断する。図11に示す例では、車線の道路情報が「中央分離帯がないときの対向車線」の場合は検出領域画像として抽出し、車線の道路情報が「工事中」の場合は検出領域画像として抽出しない。なお、検出領域抽出部6は、自車200の周辺の敷設物あるいは標識に応じて車線領域画像から検出領域画像を抽出してもよい。このように、自車位置、道路情報および自車走行車線の情報を用いて車線領域画像から検出領域画像を抽出することにより、路面劣化を検出する必要のない車線領域画像を路面劣化の検出対象から除外することができ、路面劣化の誤検出を減らすことができるとともに、路面劣化の検出の処理を少なくすることができる。
FIG. 11 is a diagram showing the relationship between road information of lanes and whether or not to extract as an extraction area image. For example, the table shown in FIG. 11 is stored in advance, and the detection area extraction unit 6 determines whether or not to extract each lane area image as the detection area image based on the road information of lanes and the table shown in FIG. do. In the example shown in FIG. 11, when the road information of the lane is "oncoming lane with no median", it is extracted as a detection area image, and when the road information of the lane is "under construction", it is extracted as a detection area image. do not. Note that the detection area extraction unit 6 may extract the detection area image from the lane area image in accordance with the objects or signs around the
ステップS08では、検出領域抽出部6は、検出領域画像が抽出されたかどうかを確認し、検出領域画像が抽出されたときはステップS09に進み、検出領域画像が抽出されなかったときはステップS01に戻る。ステップS09では、検出領域抽出部6は、ステップS02で得られた自車位置の情報と、ステップS03で得られた地図情報に含まれる属性情報とから、自車位置は路面劣化の検出対象か否かを判断する。自車位置が路面劣化の検出対象であると判断されたときは、検出領域画像を路面劣化検出部7に出力し、ステップS10に進む。自車位置が路面劣化の検出対象ではないと判断されたときは、ステップS01に戻る。図12は、自車位置の属性情報と路面劣化の検出対象か否かとの関係を示す図である。例えば、図12に示すテーブルをあらかじめ記憶しておき、検出領域抽出部6は、自車位置の属性情報と図12に示すテーブルとから自車位置は路面劣化の検出対象か否かを判断する。図12に示す例では、自車位置の属性情報が「一般道」の場合は路面劣化の検出対象であると判断し、自車位置の属性情報が「サービスエリア」の場合は路面劣化の検出対象ではないと判断する。 In step S08, the detection area extraction unit 6 confirms whether or not the detection area image has been extracted. If the detection area image has been extracted, the process proceeds to step S09, and if the detection area image has not been extracted, the process proceeds to step S01. return. In step S09, the detection area extracting unit 6 determines whether the vehicle position is a road surface deterioration detection target based on the information on the vehicle position obtained in step S02 and the attribute information included in the map information obtained in step S03. determine whether or not When it is determined that the vehicle position is subject to detection of road surface deterioration, the detection area image is output to the road surface deterioration detecting section 7, and the process proceeds to step S10. When it is determined that the vehicle position is not the road surface deterioration detection target, the process returns to step S01. FIG. 12 is a diagram showing the relationship between the attribute information of the vehicle position and whether or not road surface deterioration is to be detected. For example, the table shown in FIG. 12 is stored in advance, and the detection area extracting unit 6 determines whether or not the vehicle position is subject to detection of road surface deterioration based on the attribute information of the vehicle position and the table shown in FIG. . In the example shown in FIG. 12, when the attribute information of the vehicle position is "general road", it is determined that road surface deterioration is to be detected, and when the attribute information of the vehicle position is "service area", road surface deterioration is detected. determined not to be covered.
ステップS10では、路面劣化検出部7は、検出領域抽出部6から出力された検出領域画像から路面劣化を検出し、ステップS11に進む。例えば、検出領域抽出部6から図5の車線領域画像52が検出領域画像として出力されたときは、路面劣化検出部7は、車線領域画像52から路面劣化30を検出する。図5では、路面劣化30をひび割れとして示しているが、検出する路面劣化はひび割れに限るものではなく、穴、轍など、路面に現れた不具合であればどのようのものでも構わない。また、路面劣化検出部7が検出する対象は、路面劣化だけでなく、路面上の落下物、道路外からはみ出した倒れ枝など、走行に悪影響があり修繕する必要があるものを対象としてもよい。
In step S10, the road surface deterioration detection unit 7 detects road surface deterioration from the detection area image output from the detection area extraction unit 6, and the process proceeds to step S11. For example, when the
路面劣化30の検出は、例えば、ソーベル(Sobel)フィルタあるいはキャニー(Canny)フィルタなどによって画像上の各画素の輝度または彩度の勾配情報からエッジを検出するエッジ検出処理を用いる。路面劣化検出部7は、例えば、キャニー(Canny)フィルタによってエッジ検出処理を行う。路面劣化検出部7は、ステップS02で得られた自車位置の情報と、ステップS03で得られた地図情報とから、自車位置の属性情報を取得し、自車位置の属性情報に応じてエッジ検出処理の検出基準である2つの閾値を変更する。路面劣化検出部7は、例えば、車線領域抽出部4と同様に、図7に示すテーブルに従って、自車位置の属性情報に応じてエッジ検出処理の検出基準である2つの閾値を変更する。なお、図7に示した値は一例であり、属性情報とエッジ検出処理の閾値の関係は、エッジ検出処理の2つの閾値は自車位置において路面劣化30が検出しやすい値であればよい。
The detection of the
路面劣化検出部7における路面劣化30の検出は、エッジ検出処理に限るものではなく、機械学習を用いた検出など、路面劣化30を検出できる処理であればどのようなものでもよい。例えば、路面劣化30の検出に機械学習を用いる場合は、自車位置の属性情報に応じて機械学習の検出基準である教師データを変更する。このように、自車位置の属性情報をもとに路面劣化30を検出するときの検出基準を変更することにより、路面劣化30をより正確に検出することができ、路面劣化の未検知あるいは誤検知を抑制することができる。
Detection of the
路面劣化検出部7は、車線領域抽出部4と同様に、図8に示すように検出領域画像において輝度検出領域56を設定し、輝度検出領域56における輝度の平均値を求め、求めた輝度の平均値に応じてエッジ検出処理の2つの閾値を変更してもよい。また、輝度検出領域56における明度の値あるいは輝度検出領域56における彩度の値に応じて、エッジ検出処理の2つの閾値を変更してもよい。
Similarly to the lane area extraction unit 4, the road surface deterioration detection unit 7 sets a
ステップS11では、路面劣化検出部7は、路面劣化30が検出されたかどうかを確認する。路面劣化30が検出されたときは、検出された路面劣化の情報を検出結果情報送信部8および警報判定部11に出力し、ステップS12に進む。路面劣化30が検出されなかったときは、ステップS01に戻る。
In step S11, the road surface deterioration detector 7 confirms whether the
ステップS12では、検出結果情報送信部8は、路面劣化検出部7から取得した検出された路面劣化の情報に路面劣化を検出したときの自車位置の情報を付加したデータを、路面劣化検出装置100の外部に送信する。送信先は、例えば、路面劣化情報データベースである。図13は、検出結果情報送信部8におけるデータの送信を説明するための図である。検出結果情報送信部8は、例えば、インターネット18を介してデータを路面劣化情報データベース20に送信する。検出結果情報送信部8は、路面劣化検出部7から取得した検出された路面劣化の情報に、路面劣化を検出したときの自車位置の情報を付加したデータを、クラウドに送信してもよい。検出結果情報送信部8によって検出された路面劣化の情報を路面劣化情報データベース20あるいはクラウドに送信することにより、路面劣化情報データベース20あるいはクラウドにおいて複数の車両からの路面劣化の情報をまとめて解析することができ、より信頼性の高い路面劣化の情報を得ることができる。
In step S12, the detection result
以下においては、警報発信部12が、画像生成部13および画像出力部14を備えた画像警報発信部と、音声生成部15および音声出力部16を備えた音声警報発信部と、振動発生部17とを備えた場合の動作について説明する。ステップS13では、警報判定部11は、ステップS06で得られた自車走行車線の情報およびステップS10で得られた路面劣化の情報から、警報通知レベルを判定して画像生成部13、音声生成部15および振動発生部17に出力し、ステップS14に進む。図14は、警報判定部11および画像生成部13の動作を説明するための図である。図14は、車線領域画像52の車線が自車走行車線であり、路面劣化31が自車走行車線の外側で検出された例を示している。警報判定部11は、路面劣化31の画像上の位置を示すバウンディングボックス33が自車走行車線である車線領域画像52の領域に重なっていない場合は、警報通知レベルとして注意信号を画像生成部13、音声生成部15および振動発生部17に出力する。図15は、警報判定部11および画像生成部13の動作を説明するための別の図である。図15は、車線領域画像52の車線が自車走行車線であり、路面劣化32が自車走行車線の中で検出された例を示している。警報判定部11は、路面劣化32の画像上の位置を示すバウンディングボックス34が自車走行車線である車線領域画像52の領域に一部でも重なっている場合は、警報通知レベルとして警報信号を画像生成部13、音声生成部15および振動発生部17に出力する。
In the following description, the
警報判定部11は、警報通知レベルを警報信号のみとして、警報判定部11は、路面劣化32の画像上の位置を示すバウンディングボックス34が自車走行車線である車線領域画像52の領域に一部でも重なっている場合は、すなわち、路面劣化32が自車走行車線である車線領域画像52にあるときに、警報通知レベルとして警報信号を画像生成部13、音声生成部15および振動発生部17に出力してもよい。警報判定部11は、路面劣化が検出されたときに常に警報信号を出力するのではなく、路面劣化が自車走行車線にあるときに警報信号を出力するので、ドライバーに不要な緊張を与えることが無い。
The alarm judgment unit 11 sets the alarm notification level to only the alarm signal, and the alarm judgment unit 11 determines that the
ステップS14では、画像生成部13は、警報判定部11から取得した警報通知レベルをもとに警報画像を作成して画像出力部14に出力し、ステップS15に進む。図14に示す例では、画像生成部13は、警報判定部11から注意信号を受け取り、路面劣化31が自車走行車線の外側で検出されたことを示す警報画像71を生成し、警報画像71を画像出力部14に出力する。あるいは、画像生成部13は、警報判定部11から注意信号を受け取り、路面劣化31が自車走行車線の外側で検出されたことを示す警報画像71を生成し、警報画像71に撮像部1から取得した画像を重畳して図14に示すような警報画像を生成して、画像出力部14に出力してもよい。図15に示す例では、画像生成部13は、警報判定部11から警報信号を受け取り、路面劣化31が自車走行車線に検出されたことを示す警報画像72を生成し、警報画像72を画像出力部14に出力する。あるいは、画像生成部13は、警報判定部11から警報信号を受け取り、路面劣化31が自車走行車線に検出されたことを示す警報画像72を生成し、警報画像に撮像部1から取得した画像を重畳して図15に示すような警報画像を生成して、画像出力部14に出力してもよい。なお、警報画像71,72は、図14および図15に示したものに限るものではなく、警報を認識できるものであればどのようなものでも構わない。ステップS15では、画像出力部14は、ステップS14において生成された警報画像を表示し、ステップS16に進む。これにより、自車200を運転するドライバーは、警報画像を確認することにより、自車200の周辺に路面劣化が検出されたことを認識することができる。
In step S14, the
ステップS16では、音声生成部15は、警報判定部11から警報判定部11から取得した警報通知レベルをもとに自車200の周辺に路面劣化が検出されたことを伝える音声信号を生成し、音声出力部16に出力し、ステップS17に進む。音声生成部15は、例えば、警報信号を受け取ったときに音声信号を生成し音声出力部16に出力し、注意信号を受け取ったときには音声信号は生成しないようにしてもよい。音声生成部15は、警報信号を受け取ったときと注意信号を受け取ったときで、異なる音声信号を生成してもよい。ステップS17では、音声出力部16は、音声生成部15において生成された音声信号を音として出力して、ステップS18に進む。これにより、自車200を運転するドライバーは、音声出力部16から発せられる音を確認することにより、自車200の周辺に路面劣化が検出されたことを認識することができる。
In step S16, the
ステップS18では、振動発生部17は、警報判定部11から取得した警報通知レベルをもとに振動を発生させることにより自車200の周辺に路面劣化が検出されたことを自車200のドライバーに伝え、処理を終了する。振動発生部17は、例えば、ドライバーのシートあるいはハンドルに振動を発生させるものである。振動によって路面劣化が検出されたことをドライバーに知らせるものであればどのようなものでもよい。振動発生部17は、例えば、警報信号を受け取ったときに振動を発生させ、注意信号を受け取ったときには振動を発生させないようにしてもよい。振動発生部17は、警報信号を受け取ったときと注意信号を受け取ったときで、異なる振動を発生させてもよい。これにより、自車200を運転するドライバーは、振動発生部17から発せられる振動を確認することにより、自車200の周辺に路面劣化が検出されたことを認識することができる。
In step S18, the
なお、路面劣化検出装置の作動中は、図2に示すステップS01からステップS18の処理が繰り返し行われる。 During operation of the road surface deterioration detecting device, the processing from step S01 to step S18 shown in FIG. 2 is repeatedly performed.
以上のように、実施の形態1による路面劣化検出装置100は、自車200に搭載され路面を含む画像を取得する撮像部1と、自車200の位置である自車位置の情報を取得する自車位置情報取得部2と、自車位置を含む領域の地図情報を取得する地図情報取得部3と、画像から路面の車線を区分するレーンマークを検出し、レーンマークを用いて画像から車線領域画像を抽出する車線領域抽出部4と、自車位置および地図情報から、あるいは、レーンマークから、自車200が走行する自車走行車線を判定する自車走行車線判定部5と、車線領域画像から検出領域画像を抽出する検出領域抽出部6と、検出領域画像から路面劣化を検出する路面劣化検出部7とを備え、地図情報は、少なくとも道路の車線数を含む道路情報および地図上の位置の属性情報を含み、検出領域抽出部6は、自車位置、道路情報および自車走行車線の情報を用いて車線領域画像から検出領域画像を抽出し、路面劣化検出部7は、自車位置および属性情報をもとに路面劣化を検出するときの検出基準を変更するので、精度よく路面劣化を検出することができる。
As described above, the road surface
また実施の形態1による路面劣化検出装置100は、精度よく路面劣化を検出することができるので、検出された路面劣化の情報を路面劣化情報データベース20に送信するときに、路面劣化の誤検出による送信データの増大を抑制することができる。また、敷設物の管理者または修繕者は、より信頼度の高いデータが蓄積された路面劣化情報データベース20を利用することができる。
Further, since the road surface
図16は、実施の形態1における路面劣化検出装置100のハードウェアの一例を示す模式図である。撮像部1はカメラ303であり、自車位置情報取得部2はロケータ304であり、地図情報取得部3は送受信機305であり、検出結果情報送信部8は送信機306であり、画像出力部14はディスプレイ307であり、音声出力部16はスピーカ308であり、振動発生部17は振動器309である。車線領域抽出部4、自車走行車線判定部5、検出領域抽出部6、路面劣化検出部7、警報判定部11、画像生成部13および音声生成部15は、メモリ302に記憶されたプログラムを実行するCPU、システムLSI等のプロセッサ301により実現される。また、複数の処理回路が連携して上記機能を実行してもよい。さらに、専用のハードウェアによって上記機能を実現してもよい。専用のハードウェアによって上記機能を実現する場合は、専用のハードウェアは、例えば、単一回路、複合回路、プログラム化されたプロセッサ、ASIC、FPGA、あるいは、これらを組み合わせたものである。上記機能は、専用ハードウェアとソフトウェアとの組み合わせ、あるいは、専用ハードウェアとファームウェアとの組み合わせによって実現してもよい。プロセッサ301、メモリ302、カメラ303、ロケータ304、送受信機305、送信機306、ディスプレイ307、スピーカ308および振動器309は、互いにバス接続されている。
FIG. 16 is a schematic diagram showing an example of hardware of the road surface
本願は、例示的な実施の形態が記載されているが、実施の形態に記載された様々な特徴、態様、および機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
したがって、例示されていない無数の変形例が、本願に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合が含まれるものとする。
Although the present application describes exemplary embodiments, the various features, aspects, and functions described in the embodiments are not limited to application of particular embodiments, alone or Various combinations are applicable to the embodiments.
Therefore, countless modifications not illustrated are envisioned within the scope of the technology disclosed in the present application. For example, the modification, addition, or omission of at least one component shall be included.
1 撮像部、2 自車位置情報取得部、3 地図情報取得部、4 車線領域抽出部、5 自車走行車線判定部、6 検出領域抽出部、7 路面劣化検出部、8 検出結果情報送信部、10 路面劣化警報部、11 警報判定部、12 警報発信部、13 画像生成部、14 画像出力部、15 音声生成部、16 音声出力部、17 振動発生部、18 インターネット、19 地図情報データベース、20 路面劣化情報データベース、21、22、23、24、25、26 レーンマーク、27 中央分離帯、30、31、32 路面劣化、33、34 バウンディングボックス、41 上限ライン、42 下限ライン、51、52、53、53a、54、55 車線領域画像、56 輝度検出領域、61、62 一般道、63 トンネル、71、72 警報画像、100 路面劣化検出装置、200 自車、301 プロセッサ、302 メモリ、303 カメラ、304 ロケータ、305 送受信機、306 送信機、307 ディスプレイ、308 スピーカ、309 振動器。
1 Imaging unit 2 Vehicle position information acquisition unit 3 Map information acquisition unit 4 Lane area extraction unit 5 Vehicle traveling lane determination unit 6 Detection area extraction unit 7 Road surface
Claims (10)
前記自車の位置である自車位置の情報を取得する自車位置情報取得部と、
前記自車位置を含む領域の地図情報を取得する地図情報取得部と、
前記画像から前記路面の車線を区分するレーンマークを検出し、前記レーンマークを用いて前記画像から車線領域画像を抽出する車線領域抽出部と、
前記自車位置および前記地図情報から、あるいは、前記レーンマークから、前記自車が走行する自車走行車線を判定する自車走行車線判定部と、
前記車線領域画像から検出領域画像を抽出する検出領域抽出部と、
前記検出領域画像から路面劣化を検出する路面劣化検出部とを備え、
前記地図情報は、少なくとも道路の車線数を含む道路情報および地図上の位置の属性情報を含み、
前記検出領域抽出部は、前記自車位置、前記道路情報および前記自車走行車線の情報を用いて前記車線領域画像から前記検出領域画像を抽出し、
前記路面劣化検出部は、前記自車位置および前記属性情報をもとに前記路面劣化を検出するときの検出基準を変更することを特徴とする路面劣化検出装置。 an imaging unit that is mounted on the vehicle and acquires an image including the road surface;
an own vehicle position information acquisition unit that acquires information on the own vehicle position, which is the position of the own vehicle;
a map information acquisition unit that acquires map information of an area including the vehicle position;
a lane area extraction unit that detects lane marks that separate lanes on the road surface from the image and extracts a lane area image from the image using the lane marks;
a vehicle driving lane determination unit that determines a vehicle driving lane in which the vehicle travels from the vehicle position and the map information or from the lane mark;
a detection area extraction unit that extracts a detection area image from the lane area image;
A road surface deterioration detection unit that detects road surface deterioration from the detection area image,
The map information includes at least road information including the number of lanes on the road and attribute information of a position on the map;
The detection area extraction unit extracts the detection area image from the lane area image using the vehicle position, the road information, and the information on the vehicle's driving lane,
The road surface deterioration detection device, wherein the road surface deterioration detection unit changes a detection criterion for detecting the road surface deterioration based on the vehicle position and the attribute information.
前記路面劣化検出部によって検出された前記路面劣化の情報および前記自車走行車線の情報をもとに警報通知レベルを判定する警報判定部と、
前記警報通知レベルをもとに警報を発信する警報発信部とを備えたことを特徴とする請求項3に記載の路面劣化検出装置。 The road surface deterioration warning unit
an alarm determination unit that determines an alarm notification level based on the road surface deterioration information detected by the road surface deterioration detection unit and the vehicle driving lane information;
4. The road surface deterioration detection device according to claim 3, further comprising an alarm issuing unit that issues an alarm based on the alarm notification level.
前記警報通知レベルをもとに警報画像を生成する画像生成部と、
前記警報画像を表示する画像出力部とを備えたことを特徴とする請求項4または5に記載の路面劣化検出装置。 The alarm transmission unit
an image generation unit that generates an alarm image based on the alarm notification level;
6. The road surface deterioration detection device according to claim 4, further comprising an image output unit that displays the warning image.
前記警報通知レベルをもとに警報音声を生成する画像生成部と、
前記警報音声を出力する音声出力部とを備えたことを特徴とする請求項4から6のいずれか1項に記載の路面劣化検出装置。 The alarm transmission unit
an image generator that generates an alarm sound based on the alarm notification level;
7. The road surface deterioration detection device according to any one of claims 4 to 6, further comprising an audio output unit that outputs the warning audio.
前記警報通知レベルをもとに振動を発生させる振動発生部を備えたことを特徴とする請求項4から7のいずれか1項に記載の路面劣化検出装置。 The alarm transmission unit
8. The road surface deterioration detection device according to any one of claims 4 to 7, further comprising a vibration generator that generates vibration based on the alarm notification level.
前記自車の位置である自車位置の情報を取得する自車位置情報取得ステップと、
前記自車位置を含む領域の地図情報を取得する地図情報取得ステップと、
前記画像から前記路面の車線を区分するレーンマークを検出し、前記レーンマークを用いて前記画像から車線領域画像を抽出する車線領域抽出ステップと、
前記自車位置および前記地図情報から、あるいは、前記レーンマークから、前記自車が走行する自車走行車線を判定する自車走行車線判定ステップと、
前記車線領域画像から検出領域画像を抽出する検出領域抽出ステップと、
前記検出領域画像から路面劣化を検出する路面劣化検出ステップとを含む路面劣化検出方法であり、
前記地図情報は、地図上の位置の属性情報および少なくとも道路の車線数を含む道路情報を含み、
前記検出領域抽出ステップでは、前記自車位置、前記道路情報および前記自車走行車線の情報を用いて前記車線領域画像から前記検出領域画像を抽出し、
前記路面劣化検出ステップでは、前記自車位置および前記属性情報をもとに前記路面劣化を検出するときの検出基準を変更することを特徴とする路面劣化検出方法。 an imaging step of acquiring an image including the road surface mounted on the own vehicle;
an own vehicle position information acquisition step of acquiring information of the own vehicle position, which is the position of the own vehicle;
a map information obtaining step of obtaining map information of an area including the vehicle position;
a lane area extracting step of detecting lane marks that separate lanes on the road surface from the image, and extracting a lane area image from the image using the lane marks;
a vehicle driving lane determination step of determining a vehicle driving lane in which the vehicle is traveling from the vehicle position and the map information or from the lane mark;
a detection area extracting step of extracting a detection area image from the lane area image;
a road surface deterioration detecting step of detecting road surface deterioration from the detection area image;
The map information includes attribute information of locations on the map and road information including at least the number of lanes of the road,
In the detection area extraction step, the detection area image is extracted from the lane area image using the vehicle position, the road information, and the vehicle driving lane information,
In the road surface deterioration detection step, a road surface deterioration detecting method is characterized in that a detection criterion for detecting the road surface deterioration is changed based on the vehicle position and the attribute information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021175138A JP7191178B1 (en) | 2021-10-27 | 2021-10-27 | Road surface deterioration detection device and road surface deterioration detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021175138A JP7191178B1 (en) | 2021-10-27 | 2021-10-27 | Road surface deterioration detection device and road surface deterioration detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7191178B1 JP7191178B1 (en) | 2022-12-16 |
JP2023064793A true JP2023064793A (en) | 2023-05-12 |
Family
ID=84488916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021175138A Active JP7191178B1 (en) | 2021-10-27 | 2021-10-27 | Road surface deterioration detection device and road surface deterioration detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7191178B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04240556A (en) * | 1991-01-23 | 1992-08-27 | Tokimec Inc | Apparatus for measuring crack of road surface |
JP2014513642A (en) * | 2011-02-21 | 2014-06-05 | ストラテック システムズ リミテッド | Surveillance system and method for detecting foreign objects, debris, or damage in an airfield |
JP2017167969A (en) * | 2016-03-17 | 2017-09-21 | 首都高技術株式会社 | Damage extraction system |
JP2018120409A (en) * | 2017-01-25 | 2018-08-02 | 株式会社ユピテル | Data collection device, road status evaluation support device, and program |
WO2019009214A1 (en) * | 2017-07-07 | 2019-01-10 | キヤノン株式会社 | Image processing device, image processing method and program for detecting deformation from image |
JP2019200512A (en) * | 2018-05-15 | 2019-11-21 | 株式会社日立システムズ | Structure deterioration detection system |
JP2020056303A (en) * | 2015-07-21 | 2020-04-09 | 株式会社東芝 | Crack analyzer, crack analysis method, and crack analysis program |
-
2021
- 2021-10-27 JP JP2021175138A patent/JP7191178B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04240556A (en) * | 1991-01-23 | 1992-08-27 | Tokimec Inc | Apparatus for measuring crack of road surface |
JP2014513642A (en) * | 2011-02-21 | 2014-06-05 | ストラテック システムズ リミテッド | Surveillance system and method for detecting foreign objects, debris, or damage in an airfield |
JP2020056303A (en) * | 2015-07-21 | 2020-04-09 | 株式会社東芝 | Crack analyzer, crack analysis method, and crack analysis program |
JP2017167969A (en) * | 2016-03-17 | 2017-09-21 | 首都高技術株式会社 | Damage extraction system |
JP2018120409A (en) * | 2017-01-25 | 2018-08-02 | 株式会社ユピテル | Data collection device, road status evaluation support device, and program |
WO2019009214A1 (en) * | 2017-07-07 | 2019-01-10 | キヤノン株式会社 | Image processing device, image processing method and program for detecting deformation from image |
JP2019200512A (en) * | 2018-05-15 | 2019-11-21 | 株式会社日立システムズ | Structure deterioration detection system |
Also Published As
Publication number | Publication date |
---|---|
JP7191178B1 (en) | 2022-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8600655B2 (en) | Road marking recognition system | |
JP3958133B2 (en) | Vehicle position measuring apparatus and method | |
KR101241651B1 (en) | Image recognizing apparatus and method, and position determining apparatus, vehicle controlling apparatus and navigation apparatus using the image recognizing apparatus or method | |
JP6464783B2 (en) | Object detection device | |
US9123242B2 (en) | Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program | |
US10480949B2 (en) | Apparatus for identifying position of own vehicle and method for identifying position of own vehicle | |
JP6794243B2 (en) | Object detector | |
JP6707887B2 (en) | Vehicle equipment | |
JP2006208223A (en) | Vehicle position recognition device and vehicle position recognition method | |
WO2008130219A1 (en) | Method of and apparatus for producing road information | |
JP6759175B2 (en) | Information processing equipment and information processing system | |
JP2022037064A (en) | Accident determination apparatus | |
CN110998684B (en) | Image collection system, image collection method, image collection device, and recording medium | |
JP6129268B2 (en) | Vehicle driving support system and driving support method | |
JP4761156B2 (en) | Feature position recognition apparatus and feature position recognition method | |
US10846546B2 (en) | Traffic signal recognition device | |
JP4702149B2 (en) | Vehicle positioning device | |
JPWO2016031229A1 (en) | Road map creation system, data processing device and in-vehicle device | |
JP2008165326A (en) | Feature recognition device, own vehicle location recognizing device, navigation device and feature recognition method | |
JP7191178B1 (en) | Road surface deterioration detection device and road surface deterioration detection method | |
JP7398257B2 (en) | Road marking recognition device | |
JP2017045427A (en) | Travel path accessory detection device and method for detecting travel path accessory and travel path | |
JP6665522B2 (en) | Information processing apparatus, information processing system, and information processing program | |
JP2010139478A (en) | Navigation device | |
JP2014126887A (en) | License plate determination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221206 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7191178 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |