JP7301138B2 - ポットホール検出システム - Google Patents
ポットホール検出システム Download PDFInfo
- Publication number
- JP7301138B2 JP7301138B2 JP2021539657A JP2021539657A JP7301138B2 JP 7301138 B2 JP7301138 B2 JP 7301138B2 JP 2021539657 A JP2021539657 A JP 2021539657A JP 2021539657 A JP2021539657 A JP 2021539657A JP 7301138 B2 JP7301138 B2 JP 7301138B2
- Authority
- JP
- Japan
- Prior art keywords
- candidate
- road
- depressions
- vehicle
- difference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title description 33
- 238000000034 method Methods 0.000 claims description 34
- 239000000725 suspension Substances 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 15
- 238000010801 machine learning Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 description 20
- 238000004422 calculation algorithm Methods 0.000 description 16
- 238000007726 management method Methods 0.000 description 12
- 230000011218 segmentation Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 6
- 238000007619 statistical method Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013016 damping Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 240000004752 Laburnum anagyroides Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C7/00—Tracing profiles
- G01C7/02—Tracing profiles of land surfaces
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/301—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8093—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/35—Road bumpiness, e.g. potholes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93272—Sensor installation details in the back of the vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
3D点の深度情報は、その深度が対応する視差に反比例するため、視差から取得することができる。視差マップ401-1は、左右画像と実際の視差を使用して計算される。
ここで、
Z=カメラZ軸に沿った距離(深度)
f=焦点距離(画素)
b=ベースライン(メートル)
d=視差(画素)
視差マップから信頼できない視差を除去するために、エッジ情報401-2が利用され、これは、階調が隣接する画素の階調と異なる画素として定義される。視差マップでは、実現不可能な視差を破棄するために、各視差の信頼度が計算される。得られた修正視差マップは図6に示すようなものであり、これは閾値視差画像として知られており、閾値画像を得るために使用されるエッジ画像は図6に示すようなものである。
図7は、例示的な実装形態による、ROI検出のフロー図を示す。左右画像701-1とレーンマーカ検出アルゴリズム701-2の出力を使用して、画像上の左右のレーンマーカ(カメラから4m間隔毎)の画素位置(行、列)を計算する。このレーン情報を使用して、画像全体に対して行毎にROI境界(左右両側)を計算する。702で、検出範囲に応じて上部および下部の境界を選択し、703でROIを形成し、ポットホールの候補を抽出することができる。
強度分類器1112では、候補から抽出された様々な強度(グレースケール画像)特徴に基づいて分類が行われる。図12は、例示的な実装形態による、強度分類器のフローチャートを示す。グレースケールまたは強度画像1201に基づいて抽出された候補は、内側領域1202-2と外側領域とに分割され、外側領域は、所望の実施態様に従って、左側1202-1、右側1202-3、ならびに上部領域および下部領域などの領域にさらに分割することができる。図13は、例示的な実装形態による、異なる領域に分割された抽出された候補を有する例示的なサンプル画像を示す。
図15(a)に示すように、候補の周囲の境界ボックスが(候補の距離およびサイズを使用して)拡張されると、図15(b)に示すように、統計分析のために各領域から特徴が抽出される。統計的な分析および分類を行うために、図15(b)に示すように、外側領域をサブ領域(例えば、少なくとも2つ)に分割する。次に、強度の分布が各領域で別々に分析され、そのような分布は他の領域と比較され、最後に内側領域と比較される。続いて、これらの特徴の各々が特定の閾値と比較される(例えば、統計分析によって以前に分析されたデータを使用して計算される)。指定された閾値条件に基づいて、強度分類器の結果が深度分類器の結果とともに使用される。
1.深度分類器については、各候補からのデータまたは視差情報から抽出された特徴(候補抽出出力)を使用して分類が行われる。図16は、例示的な実装形態による、深度分類器の例示的なフローチャートを示す。
有効画素が抽出されると、図18に示すように、内側候補領域の周囲の画素(隣接有効画素および拡張隣接領域画素)を使用して、1602で路面を推定することができる。
最小二乗アルゴリズムまたは同様のアルゴリズムを使用して、路面を推定することができる。最小二乗アルゴリズムを設定するには、路面の関数モデルを定義する必要がある。
1603で、推定路面を利用することによって各画素の深度が推定される。1602で候補の内側領域の周りの有効画素を使用して路面が推定されると、路面の高さおよび各画素の高さを使用することにより、各画素の実際の深度を計算することができる。出力は図22に示す通りであり、これに使用される式は以下の通りである。
1604で、ポットホールに属するコア画素のみを選択するためにクラスタリング方法が利用され、選択された画素は、1605で、推定深度データにおけるノイズレベルを低減するために使用される。例示的な実装形態では、クラスタリング方法は、データセットを、実際の深度情報を示すコアクラスタと、不正確な深度情報を示す外れ値とに分割するために使用される。図23は、例示的な実装形態による、クラスタアルゴリズムの例示的な出力を示す。
図24は、例示的な実装形態による、深度分布によってカバーされるコア画素の分布および領域の曲線を示す。本明細書に記載の例示的な実装形態では、特徴抽出モジュールを利用して特徴抽出および分類を行う。クラスタリング操作から、1606で、有効画素が特徴抽出に使用される。すなわち、クラスタリング出力からのコア画素およびその深度値のみが、実際のポットホールの候補に属するため、推定のために抽出される。コア画素が抽出されると、以下の特徴、すなわち、コア画素の分布1607(例えば、各領域内のコア画素の数)、コア画素の分布に基づくポットホールの曲率1608、および深度分布によってカバーされる領域の数1609が、特徴抽出モジュールによって計算される。特徴は、使用のために1610で記憶される。
コア画素クラスタを使用して、1612で、検出された各ポットホールの実際の深度を推定することができる。図25は、例示的な実装形態による、検出された候補の実際の深度の例示的な推定を示す。図25の例では、(例えば、指定された閾値内で)最も「負」の深度の最大コア画素数を有するクラスタ領域が決定される。領域内の各画素の深度値およびそのような画素の3D情報を使用して、実際の最大深度が推定される。図26は、提案する深度および強度分類器を使用して検出されたポットホールおよび道路亀裂の例を示す。
図26に示すようなポットホールや垂直方向の道路亀裂の検出に伴い、図27に示すような水平方向の道路亀裂を検出する必要がある。そのような水平方向の道路亀裂を検出するために、本明細書に記載の例示的な実装形態は、新規なラインスキャン検出モジュールを含む。
図30は、例示的な実装形態による、水平方向の道路亀裂を判定するための領域分割の例を示す。候補が抽出されると、深度分類器および強度情報を使用することによって、2804で、特徴抽出を使用することによって水平方向の道路亀裂が検出される。強度情報は影を除去するために使用され、深度分類器は、2805で深度を検出するために使用され、結果として生じる特徴は、2806で水平方向の道路亀裂として利用される。影を除去するために、抽出された候補は、図30に示すように、少なくとも3つの領域、すなわち、上部領域2803-1、内側領域2803-2、および下部領域2803-3に分割される。ここで、自由行の数は、距離および車速に依存する。
B=候補の内側領域内の分散
c.各特徴を特定の閾値(例えば、統計分析によって以前に分析されたデータを使用して計算される)と比較する。
候補が検出されると、候補は残りのフレームについて追跡され、対応する寸法情報が出力に表示される。車両速度、ポットホールの位置およびサイズに基づいて、システムは、ポットホールを回避するために、またはサスペンションシステムの減衰および/またはばね係数を変更するために、必要なコマンドを決定し、電子コントローラユニット(ECU)に送信する。すべてのルートについて、システムは、将来のルート生成優先度のためにデータを使用するために、ポットホール/道路亀裂の数、それらの位置およびサイズをマップ/ルート生成システムに提供する。図31は、ラインスキャン検出の出力の形態の表示出力307の例を示す。
図32(a)は、窪みの可視領域および死角領域を有する窪みのための窪み検出システムを示す。図32(a)に示すように、そのような窪みを検出すると、道路の画像を受信しているときに車両のカメラシステムがどのように配向されているかに起因して、窪みの死角が存在する可能性がある。カメラシステムの観点から、例示的な実装形態は、深度情報が利用可能な領域の深度情報を決定することができる。しかしながら、そのような窪みは、深度情報が利用できない場合がある死角を有する場合もある。窪みの死角を補償し、窪みの真の深度を決定するために、本明細書に記載の例示的な実装形態は、窪みの深度および窪み曲線を推定するために反転ガウス曲線(すなわち、負のガウス分布)を利用する。例示的な実装形態では、道路窪みの大部分が何らかの形の負のガウス形状である傾向があるため、窪みの深度を推定するために負のガウス分布が利用される。
図33は、例示的な実装形態による、車両コントローラシステムの例示的な決定表を示す。例えば、図32(b)のフローに基づいて、到来する窪みの特性を推定する場合、車両コントローラは、窪みを1つまたは複数のタイプに分類し、これに応じて車両の速度、サスペンション、ステアリングの少なくとも1つを制御することができる。例示的な実装形態では、窪みを、窪み深度(所望の実装形態に従って、深すぎる、中間である、浅い、またはその他)および/または窪みサイズ(例えば、所望の実装形態に応じて、大、中、小、またはその他)、ならびに距離(所望の実装形態に従って設定されるように、近い、遠い)に基づいて分類することができる。
Claims (9)
- 方法であって、
車両の1つまたは複数のカメラから受信した道路の画像の差分画像を決定するステップと、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別するステップと、
前記1つまたは複数の候補窪みの各々について窪みのタイプを決定するステップと、
前記1つまたは複数の候補窪みの各々について決定された前記窪みのタイプから、前記車両のサスペンション、ステアリング、または速度のうちの少なくとも1つを制御するステップと、を含み、
前記1つまたは複数のカメラは単一のカメラであり、前記差分画像は、前記道路の予想されるものに対する前記道路の受信画像に基づいて差分画像を生成するように訓練される機械学習プロセスを介して、前記カメラから受信した前記道路の前記画像から生成される、方法。 - 方法であって、
車両の1つまたは複数のカメラから受信した道路の画像の差分画像を決定するステップと、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別するステップと、
前記1つまたは複数の候補窪みの各々について窪みのタイプを決定するステップと、
前記1つまたは複数の候補窪みの各々について決定された前記窪みのタイプから、前記車両のサスペンション、ステアリング、または速度のうちの少なくとも1つを制御するステップと、を含み、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別する前記ステップは、
前記差分画像のエッジ画像画素の視差マップを閾値と比較するステップと、
前記エッジ画像画素の各々を前記比較に基づく重みと関連付けるステップと、
前記エッジ画像画素の前記各々に関連付けられた前記重みに基づいて前記1つまたは複数の候補窪みを識別するステップと、を含む、方法。 - 方法であって、
車両の1つまたは複数のカメラから受信した道路の画像の差分画像を決定するステップと、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別するステップと、
前記1つまたは複数の候補窪みの各々について窪みのタイプを決定するステップと、
前記1つまたは複数の候補窪みの各々について決定された前記窪みのタイプから、前記車両のサスペンション、ステアリング、または速度のうちの少なくとも1つを制御するステップと、を含み、
前記1つまたは複数の候補窪みの各々について前記窪みのタイプを決定する前記ステップは、
前記1つまたは複数の候補窪みの可視画素の推定された傾きに負のガウス分布を適用することに基づいて前記1つまたは複数の候補窪みの死角領域を識別するステップと、
前記負のガウス分布の前記適用に基づいて前記1つまたは複数の候補窪みの深度を推定するステップと、
前記推定された深度と、前記1つまたは複数の候補窪みの推定された形状とに基づいて、前記1つまたは複数の候補窪みの前記各々について前記窪みのタイプを決定するステップと、を含む、方法。 - プロセスを実行するための命令を記憶する非一時的コンピュータ可読媒体であって、前記命令は、
車両の1つまたは複数のカメラから受信した道路の画像の差分画像を決定するステップと、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別するステップと、
前記1つまたは複数の候補窪みの各々について窪みのタイプを決定するステップと、
前記1つまたは複数の候補窪みの各々について決定された前記窪みのタイプから、前記車両のサスペンション、ステアリング、または速度のうちの少なくとも1つを制御するステップと、を含み、
前記1つまたは複数のカメラは単一のカメラであり、前記差分画像は、前記道路の予想されるものに対する前記道路の受信画像に基づいて差分画像を生成するように訓練される機械学習プロセスを介して、前記カメラから受信した前記道路の前記画像から生成される、非一時的コンピュータ可読媒体。 - プロセスを実行するための命令を記憶する非一時的コンピュータ可読媒体であって、前記命令は、
車両の1つまたは複数のカメラから受信した道路の画像の差分画像を決定するステップと、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別するステップと、
前記1つまたは複数の候補窪みの各々について窪みのタイプを決定するステップと、
前記1つまたは複数の候補窪みの各々について決定された前記窪みのタイプから、前記車両のサスペンション、ステアリング、または速度のうちの少なくとも1つを制御するステップと、を含み、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別する前記ステップは、
前記差分画像のエッジ画像画素の視差マップを閾値と比較するステップと、
前記エッジ画像画素の各々を前記比較に基づく重みと関連付けるステップと、
前記エッジ画像画素の前記各々に関連付けられた前記重みに基づいて前記1つまたは複数の候補窪みを識別するステップと、を含む、非一時的コンピュータ可読媒体。 - プロセスを実行するための命令を記憶する非一時的コンピュータ可読媒体であって、前記命令は、
車両の1つまたは複数のカメラから受信した道路の画像の差分画像を決定するステップと、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別するステップと、
前記1つまたは複数の候補窪みの各々について窪みのタイプを決定するステップと、
前記1つまたは複数の候補窪みの各々について決定された前記窪みのタイプから、前記車両のサスペンション、ステアリング、または速度のうちの少なくとも1つを制御するステップと、を含み、
前記1つまたは複数の候補窪みの各々について前記窪みのタイプを決定する前記ステップは、
前記1つまたは複数の候補窪みの可視画素の推定された傾きに負のガウス分布を適用することに基づいて前記1つまたは複数の候補窪みの死角領域を識別するステップと、
前記負のガウス分布の前記適用に基づいて前記1つまたは複数の候補窪みの深度を推定するステップと、
前記推定された深度と、前記1つまたは複数の候補窪みの推定された形状とに基づいて、前記1つまたは複数の候補窪みの前記各々について前記窪みのタイプを決定するステップと、を含む、非一時的コンピュータ可読媒体。 - 車両システムであって、
1つまたは複数のカメラと、
プロセッサであって、
車両の1つまたは複数のカメラから受信した道路の画像の差分画像を決定し、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別し、
前記1つまたは複数の候補窪みの各々について窪みのタイプを決定し、
前記1つまたは複数の候補窪みの各々について決定された前記窪みのタイプから、前記車両システムのサスペンション、ステアリング、または速度のうちの少なくとも1つを制御するように電子コントローラユニット(ECU)に命令するように構成される、プロセッサと、を含み、
前記1つまたは複数のカメラは単一のカメラであり、前記差分画像は、前記道路の予想されるものに対する前記道路の受信画像に基づいて差分画像を生成するように訓練される機械学習プロセスを介して、前記カメラから受信した前記道路の前記画像から生成される、車両システム。 - 車両システムであって、
1つまたは複数のカメラと、
プロセッサであって、
車両の1つまたは複数のカメラから受信した道路の画像の差分画像を決定し、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別し、
前記1つまたは複数の候補窪みの各々について窪みのタイプを決定し、
前記1つまたは複数の候補窪みの各々について決定された前記窪みのタイプから、前記車両システムのサスペンション、ステアリング、または速度のうちの少なくとも1つを制御するように電子コントローラユニット(ECU)に命令するように構成される、プロセッサと、を含み、
前記プロセッサは、
前記差分画像のエッジ画像画素の視差マップを閾値と比較するステップと、
前記エッジ画像画素の各々を前記比較に基づく重みと関連付けるステップと、
前記エッジ画像画素の前記各々に関連付けられた前記重みに基づいて前記1つまたは複数の候補窪みを識別するステップとによって、前記差分画像から前記道路上の1つまたは複数の候補窪みを識別するように構成される、車両システム。 - 車両システムであって、
1つまたは複数のカメラと、
プロセッサであって、
車両の1つまたは複数のカメラから受信した道路の画像の差分画像を決定し、
前記差分画像から前記道路上の1つまたは複数の候補窪みを識別し、
前記1つまたは複数の候補窪みの各々について窪みのタイプを決定し、
前記1つまたは複数の候補窪みの各々について決定された前記窪みのタイプから、前記車両システムのサスペンション、ステアリング、または速度のうちの少なくとも1つを制御するように電子コントローラユニット(ECU)に命令するように構成される、プロセッサと、を含み、
前記プロセッサは、
前記1つまたは複数の候補窪みの可視画素の推定された傾きに負のガウス分布を適用することに基づいて前記1つまたは複数の候補窪みの死角領域を識別するステップと、
前記負のガウス分布の前記適用に基づいて前記1つまたは複数の候補窪みの深度を推定するステップと、
前記推定された深度と、前記1つまたは複数の候補窪みの推定された形状とに基づいて、前記1つまたは複数の候補窪みの前記各々について前記窪みのタイプを決定するステップと、によって、前記1つまたは複数の候補窪みの各々について窪みのタイプを決定するように構成される、車両システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/265,913 | 2019-02-01 | ||
US16/265,913 US11373532B2 (en) | 2019-02-01 | 2019-02-01 | Pothole detection system |
PCT/JP2019/049453 WO2020158219A1 (en) | 2019-02-01 | 2019-12-17 | Pothole detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517940A JP2022517940A (ja) | 2022-03-11 |
JP7301138B2 true JP7301138B2 (ja) | 2023-06-30 |
Family
ID=71836734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021539657A Active JP7301138B2 (ja) | 2019-02-01 | 2019-12-17 | ポットホール検出システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11373532B2 (ja) |
JP (1) | JP7301138B2 (ja) |
WO (1) | WO2020158219A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200109118A (ko) * | 2019-03-12 | 2020-09-22 | 현대자동차주식회사 | 차량의 추락 방지 장치 및 그 방법 |
CN114051631A (zh) * | 2019-06-27 | 2022-02-15 | 哲内提 | 用于估计可行驶表面的方法和系统 |
US11340624B2 (en) * | 2019-08-29 | 2022-05-24 | Ford Global Technologies, Llc | Vehicle neural network |
US11810364B2 (en) | 2020-08-10 | 2023-11-07 | Volvo Car Corporation | Automated road damage detection |
CN112644483A (zh) * | 2020-12-24 | 2021-04-13 | 宝能(西安)汽车研究院有限公司 | 车速控制方法、可读存储介质、车速控制装置和车辆 |
DE102021102526A1 (de) * | 2021-02-03 | 2022-08-04 | Ford Global Technologies, Llc | Festlegen einer Schlaglöchern ausweichenden Trajektorie eines Kraftfahrzeuges |
CN113104033B (zh) * | 2021-05-11 | 2022-06-03 | 东风柳州汽车有限公司 | 低速自动驾驶方法、装置、设备及存储介质 |
CN113361423A (zh) * | 2021-06-11 | 2021-09-07 | 上海追势科技有限公司 | 一种主动悬架调整方法 |
US20230192067A1 (en) * | 2021-11-23 | 2023-06-22 | Motional Ad Llc | Motion planner constraint generation based on road surface hazards |
US11999352B2 (en) * | 2021-12-15 | 2024-06-04 | Industrial Technology Research Institute | Method and system for extracting road data and method and system for controlling self-driving car |
CN114261408B (zh) * | 2022-01-10 | 2024-05-03 | 武汉路特斯汽车有限公司 | 一种可识别路况的自动驾驶方法、系统及车辆 |
CN118182513A (zh) * | 2022-12-12 | 2024-06-14 | 宝马股份公司 | 车辆以及用于车辆的自动驾驶控制方法和系统 |
CN116612400B (zh) * | 2023-05-30 | 2024-03-19 | 衡水金湖交通发展集团有限公司 | 一种基于公路平整度的道路管理方法和管理系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010218569A (ja) | 2010-04-28 | 2010-09-30 | Aisin Aw Co Ltd | 地物情報収集装置及び地物情報収集方法 |
WO2012017650A1 (ja) | 2010-08-03 | 2012-02-09 | パナソニック株式会社 | 物体検出装置、物体検出方法及びプログラム |
JP2012073810A (ja) | 2010-09-29 | 2012-04-12 | Hitachi Ltd | 路面状況推定装置および路面状況推定方法 |
JP2017142613A (ja) | 2016-02-09 | 2017-08-17 | 株式会社リコー | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム |
JP2018106474A (ja) | 2016-12-27 | 2018-07-05 | パイオニア株式会社 | 車両制御装置、車両制御方法及びプログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007184537A (ja) | 2005-12-07 | 2007-07-19 | Canon Inc | 露光方法、露光装置、複数の基板上にレジストを塗布する装置およびデバイス製造方法 |
US20130258108A1 (en) | 2010-12-24 | 2013-10-03 | Hitachi, Ltd. | Road Surface Shape Recognition System and Autonomous Mobile Apparatus Using Same |
WO2013090830A1 (en) * | 2011-12-16 | 2013-06-20 | University Of Southern California | Autonomous pavement condition assessment |
DE102012101085A1 (de) | 2012-02-10 | 2013-08-14 | Conti Temic Microelectronic Gmbh | Bestimmung einer Beschaffenheit einer Fahrbahnoberfläche mittels einer 3D-Kamera |
WO2014064990A1 (ja) | 2012-10-25 | 2014-05-01 | シャープ株式会社 | 平面検出装置、平面検出装置を備えた自律移動装置、路面段差検出方法、路面段差検出装置、および路面段差検出装置を備えた車両 |
US9322909B2 (en) | 2012-12-13 | 2016-04-26 | Continental Automotive Systems, Inc. | Negative obstacle detection with stereo camera and long range radar |
WO2014190037A1 (en) * | 2013-05-22 | 2014-11-27 | Siemens Aktiengesellschaft | Parameter estimation for mesh segmentation using random walks |
EP4030378A1 (en) * | 2015-05-10 | 2022-07-20 | Mobileye Vision Technologies Ltd. | Road profile along a predicted path |
JP2016217084A (ja) | 2015-05-26 | 2016-12-22 | 株式会社日立システムズ | 路面状況計測システム、路面状況計測方法並びに路面状況計測プログラム |
JP2017199178A (ja) | 2016-04-27 | 2017-11-02 | Kyb株式会社 | 路面状態検出装置 |
US11145142B2 (en) * | 2016-09-06 | 2021-10-12 | International Business Machines Corporation | Detection of road surface defects |
US20180215391A1 (en) * | 2017-01-30 | 2018-08-02 | GM Global Technology Operations LLC | Methods and systems for detecting road surface using crowd-sourced driving behaviors |
EP3638878B1 (en) | 2017-06-15 | 2022-03-30 | Services Pétroliers Schlumberger | Dynamic field operations system |
KR102370908B1 (ko) * | 2017-07-03 | 2022-03-07 | 현대자동차주식회사 | 노면 적응성 방식 스마트 크루즈 방법 및 어드밴스 스마트 크루즈 시스템 |
US20190248364A1 (en) * | 2018-02-12 | 2019-08-15 | GM Global Technology Operations LLC | Methods and systems for road hazard detection and localization |
US10872433B2 (en) * | 2018-04-18 | 2020-12-22 | Mobileye Vision Technologies Ltd. | Vehicle environment modeling with a camera |
-
2019
- 2019-02-01 US US16/265,913 patent/US11373532B2/en active Active
- 2019-12-17 WO PCT/JP2019/049453 patent/WO2020158219A1/en active Application Filing
- 2019-12-17 JP JP2021539657A patent/JP7301138B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010218569A (ja) | 2010-04-28 | 2010-09-30 | Aisin Aw Co Ltd | 地物情報収集装置及び地物情報収集方法 |
WO2012017650A1 (ja) | 2010-08-03 | 2012-02-09 | パナソニック株式会社 | 物体検出装置、物体検出方法及びプログラム |
JP2012073810A (ja) | 2010-09-29 | 2012-04-12 | Hitachi Ltd | 路面状況推定装置および路面状況推定方法 |
JP2017142613A (ja) | 2016-02-09 | 2017-08-17 | 株式会社リコー | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム |
JP2018106474A (ja) | 2016-12-27 | 2018-07-05 | パイオニア株式会社 | 車両制御装置、車両制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022517940A (ja) | 2022-03-11 |
US11373532B2 (en) | 2022-06-28 |
US20200250984A1 (en) | 2020-08-06 |
WO2020158219A1 (en) | 2020-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7301138B2 (ja) | ポットホール検出システム | |
US11556744B1 (en) | Auto labeler | |
CN108647638B (zh) | 一种车辆位置检测方法及装置 | |
CN111448478B (zh) | 用于基于障碍物检测校正高清地图的系统和方法 | |
US10691962B2 (en) | Systems and methods for rear signal identification using machine learning | |
US11338807B2 (en) | Dynamic distance estimation output generation based on monocular video | |
US10896310B2 (en) | Image processing device, image processing system, and image processing method | |
CN115393536A (zh) | 利用相机进行车辆环境建模 | |
US10442438B2 (en) | Method and apparatus for detecting and assessing road reflections | |
DE112019001657T5 (de) | Signalverarbeitungsvorrichtung und signalverarbeitungsverfahren, programm und mobiler körper | |
JP6574611B2 (ja) | 立体画像に基づいて距離情報を求めるためのセンサシステム | |
KR20210061069A (ko) | 3차원 객체를 표시하는 방법 및 장치 | |
CN115683135A (zh) | 用于确定可行驶空间的系统和方法 | |
Yebes et al. | Learning to automatically catch potholes in worldwide road scene images | |
Kühnl et al. | Visual ego-vehicle lane assignment using spatial ray features | |
JP7454685B2 (ja) | 車両走行路内のデブリの検出 | |
WO2023080111A1 (en) | Method and Systems for Detection Accuracy Ranking and Vehicle Instruction | |
JP2015001966A (ja) | 物体検出装置 | |
US20240103525A1 (en) | Vehicle and control method thereof | |
US20240083415A1 (en) | Advanced driver assistance system and vehicle | |
US20240212194A1 (en) | Vehicle and control method thereof | |
US20210190956A1 (en) | Ground surface imaging combining lidar and camera data | |
JP2024062325A (ja) | 情報処理装置及びプログラム | |
CN116416585A (zh) | 使用来自二维图像的信息改进三维数据关联的系统和方法 | |
JP2022123153A (ja) | ステレオ画像処理装置及びステレオ画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7301138 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |