JP6910664B2 - 自動駐車システム内のセマンティックセグメンテーションを利用した駐車領域を検出するための方法及び装置 - Google Patents
自動駐車システム内のセマンティックセグメンテーションを利用した駐車領域を検出するための方法及び装置 Download PDFInfo
- Publication number
- JP6910664B2 JP6910664B2 JP2020009860A JP2020009860A JP6910664B2 JP 6910664 B2 JP6910664 B2 JP 6910664B2 JP 2020009860 A JP2020009860 A JP 2020009860A JP 2020009860 A JP2020009860 A JP 2020009860A JP 6910664 B2 JP6910664 B2 JP 6910664B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- test
- parking
- feature map
- parking lot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims description 169
- 238000000034 method Methods 0.000 title claims description 153
- 238000012360 testing method Methods 0.000 claims description 276
- 230000008569 process Effects 0.000 claims description 128
- 230000000873 masking effect Effects 0.000 claims description 90
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000002093 peripheral effect Effects 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 5
- 238000010998 test method Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
- G08G1/141—Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
- G08G1/143—Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q5/00—Arrangement or adaptation of acoustic signal devices
- B60Q5/005—Arrangement or adaptation of acoustic signal devices automatically actuated
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/002—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/10—Path keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/027—Parking aids, e.g. instruction means
- B62D15/0285—Parking performed automatically
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
また、イメージプロセッシングを利用する方法は、エラーが多いため利用することが困難である。
この際、前記エンコーダ110は、前記駐車場イメージをダウンサンプリング(down−sampling)することができ、前記デコーダ120は、ダウンサンプリングされた特徴マップをアップサンプリング(up−sampling)することができる。
この際、前記学習装置1000は、前記特定駐車可能領域である前記特定ROIに対応する前記ROIのGTを利用して前記リグレッサ200を学習させるプロセスを遂行するが、テスティングプロセスで推定された前記空き駐車領域は、前記GTによる前記ROIほど正確ではないので、前記リグレッサ200によって取得された相対座標は、エラーを有し得る。
一方、それぞれのカメラは、駐車場の同一に区切られた空間のイメージあるいは映像を撮影するように多数のカメラが設置され得、それぞれのカメラは駐車場内で位置が割り当てられ得る。
Claims (24)
- 駐車場の駐車可能空間を検出するために利用される自動車の自動駐車装置を学習する方法において、
(a)前記駐車場の上部から前記駐車場の床方向に前記自動車の周辺領域を撮影して生成された少なくとも一つの駐車場イメージが取得されると、学習装置が、(i)前記駐車場イメージをセグメンテーションネットワークに入力することにより、前記セグメンテーションネットワークをもって、(i−1)エンコーダ(encoder)によって、前記駐車場イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つのコンボリューション特徴マップを出力するようにし、(i−2)デコーダ(decoder)によって、前記コンボリューション特徴マップに少なくとも一つのデコンボリューション演算を適用してデコンボリューション特徴マップを出力するようにし、(i−3)マスキングレイヤ(masking layer)によって、前記デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用して前記駐車場イメージ上で一つ以上の空き駐車領域のセグメンテーションを示すセグメンテーション情報を出力するようにするプロセスを遂行する段階、
(b)前記学習装置が、(i)特定ROIに対応する前記デコンボリューション特徴マップをリグレッサ(regressor)に入力することにより、前記リグレッサをもって、(i−1)前記特定ROIの中心からの前記特定ROIの一つ以上の頂点に対する相対座標を生成するようにし、(i−2)前記相対座標に少なくとも一つのリグレッション演算を適用して、少なくとも一つの特定駐車可能領域(前記空き駐車領域のうちの前記特定駐車可能領域は、前記特定ROIとして決定される)に対するリグレッション位置情報を生成するようにするプロセスを遂行する段階、及び
(c)前記学習装置が、第1ロスレイヤをもって、前記リグレッション位置情報とこれに対応する少なくとも一つのROIのGT(ground truth)とを参照して一つ以上の第1ロスを算出するようにするプロセス、及び前記第1ロスを利用したバックプロパゲーションによって、前記第1ロスを最小化するように前記リグレッサを学習させるプロセスを遂行する段階、
を含むことを特徴とする方法。 - 前記セグメンテーションネットワークは、以前学習装置により前記駐車場イメージ上で前記空き駐車領域をセグメンテーション(segmentation)して生成されたセグメンテーション情報を出力するよう事前学習された状態であり、
少なくとも一つの学習用以前駐車場イメージが取得されると、前記以前学習装置が、(i)前記学習用以前駐車場イメージを前記セグメンテーションネットワークに入力することにより、前記セグメンテーションネットワークをもって、(i−1)前記エンコーダによって、前記学習用以前駐車場イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つの学習用以前コンボリューション特徴マップを出力するようにし、(i−2)前記デコーダによって、前記学習用以前コンボリューション特徴マップに少なくとも一つのデコンボリューション演算を適用して少なくとも一つの学習用以前デコンボリューション特徴マップを出力するようにし、(i−3)前記マスキングレイヤによって、前記学習用以前デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用して前記学習用以前駐車場イメージ上で前記空き駐車領域のセグメンテーションを示す学習用以前セグメンテーション情報を出力するようにするプロセス、及び(ii)第2ロスレイヤをもって、前記学習用以前セグメンテーション情報とこれに対応する少なくとも一つのセグメンテーションGTとを参照して、一つ以上の第2ロスを算出するようにし、前記第2ロスを利用したバックプロパゲーションによって、前記第2ロスが最小化されるように前記マスキングレイヤ、前記デコーダ、及び前記エンコーダのうちの少なくとも一つのパラメータがアップデートされるプロセス、
を遂行することを特徴とする請求項1に記載の方法。 - 前記学習装置は、前記ROIのGTをジッタリング(jittering)するプロセス、及び前記第1ロスレイヤをもって、ジッタリングされた前記ROIのGTと前記リグレッション位置情報とを参照して前記第1ロスを算出するようにするプロセス、
を遂行することを特徴とする請求項1に記載の方法。 - 前記学習装置は、前記ROIのGTのスケールを参照して、前記ROIのGTの前記スケールの最大値と前記スケールの最小値とを設定するプロセス、及び前記ROIのGTの前記スケールの前記最大値と前記スケールの前記最小値との平均を用いて前記ROIのGTをジッタリングするプロセス、
を遂行することを特徴とする請求項3に記載の方法。 - 前記学習装置は、前記スケールの前記最大値と前記スケールの前記最小値との間から無作為に選択される一つ以上のランダムスケールを取得するプロセス、及び前記第1ロスレイヤをもって、それぞれの前記ランダムスケールと前記リグレッション位置情報とを参照して一つ以上の第3ロスを算出するようにし、それぞれの前記第3ロスを利用したバックプロパゲーションによってそれぞれの前記第3ロスを最小化するように前記リグレッサを微細調整するようにするプロセス、
を遂行することを特徴とする請求項4に記載の方法。 - 前記学習装置は、前記マスキングレイヤをもって、前記デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用するようにすることにより、前記駐車場イメージ上で、(i)一つ以上の関心駐車可能領域、(ii)一つ以上の背景領域、(ii)一つ以上の関心外駐車可能領域、及び(iv)一つ以上の駐車された駐車領域のうちの少なくとも一つをセグメンテーション(segmentation)するプロセス、
を遂行することを特徴とする請求項1に記載の方法。 - 前記学習装置は、前記マスキングレイヤをもって、前記空き駐車領域と前記自動車との間の一つ以上の距離を参照して、前記空き駐車領域を前記関心駐車可能領域及び前記関心外駐車可能領域にセグメンテーションするようにするプロセス、
を遂行することを特徴とする請求項6に記載の方法。 - 駐車場の駐車可能空間を検出するため利用される自動車の自動駐車装置をテスティングする方法において、
(a)少なくとも一つの学習用駐車場イメージが取得されると、学習装置が、(i)前記学習用駐車場イメージをセグメンテーションネットワークに入力することにより、前記セグメンテーションネットワークをもって、(i−1)エンコーダ(encoder)によって、前記学習用駐車場イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つの学習用コンボリューション特徴マップを出力するようにし、(i−2)デコーダ(decoder)によって、前記学習用コンボリューション特徴マップに少なくとも一つのデコンボリューション演算を適用して学習用デコンボリューション特徴マップを出力するようにし、(i−3)マスキングレイヤ(masking layer)によって、前記学習用デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用して前記学習用駐車場イメージ上で一つ以上の学習用空き駐車領域のセグメンテーションを示す学習用セグメンテーション情報を出力するようにするプロセス、(ii)学習用特定ROIに対応する前記学習用デコンボリューション特徴マップをリグレッサ(regressor)に入力することにより、前記リグレッサをもって、(ii−1)前記学習用特定ROIの中心からの前記学習用特定ROIの一つ以上の頂点に対する学習用相対座標を生成するようにし、(ii−2)前記学習用相対座標に少なくとも一つのリグレッション演算を適用して、少なくとも一つの学習用特定駐車可能領域(前記学習用空き駐車領域のうちの前記学習用特定駐車可能領域は、前記学習用特定ROIとして決定される)に対する学習用リグレッション位置情報を生成するようにするプロセス、及び(iii)第1ロスレイヤをもって、前記学習用リグレッション位置情報と、これに対応する少なくとも一つのROIのGT(ground truth)とを参照して一つ以上の第1ロスを算出するようにするプロセス、及び前記第1ロスを利用したバックプロパゲーションによって、前記第1ロスを最小化するように前記リグレッサを学習させるプロセスを遂行した状態で、テスティング装置が、テスト用駐車場の上部から前記テスト用駐車場の床方向にテスト用自動車の周辺領域を撮影して生成された少なくとも一つのテスト用駐車場イメージが取得されると、(a−1)前記テスト用駐車場イメージを前記セグメンテーションネットワークに入力することにより、前記セグメンテーションネットワークをもって、(a−1ーa)前記エンコーダ(encoder)によって、前記テスト用駐車場イメージに前記コンボリューション演算を適用して少なくとも一つのテスト用コンボリューション特徴マップを出力するようにし、(a−1−b)前記デコーダ(decoder)によって、前記テスト用コンボリューション特徴マップに前記デコンボリューション演算を適用してテスト用デコンボリューション特徴マップを出力するようにし、(a−1−c)前記マスキングレイヤ(masking layer)によって、前記テスト用デコンボリューション特徴マップにマスキング演算を適用して前記テスト用駐車場イメージ上で一つ以上のテスト用空き駐車領域のセグメンテーションを示すテスト用セグメンテーション情報を出力するようにするプロセスを遂行する段階、及び
(b)前記テスティング装置が、テスト用特定ROIに対応する前記テスト用デコンボリューション特徴マップを前記リグレッサ(regressor)に入力することにより、前記リグレッサをもって、(i−1)前記テスト用特定ROIの中心からの前記テスト用特定ROIの一つ以上の頂点に対するテスト用相対座標を生成するようにし、(i−2)前記テスト用相対座標に前記リグレッション演算を適用して、少なくとも一つのテスト用特定駐車可能領域(前記テスト用空き駐車領域のうちの前記テスト用特定駐車可能領域は、前記テスト用特定ROIとして決定される)に対するテスト用リグレッション位置情報を生成するようにするプロセスを遂行する段階、
を含むことを特徴とするテスティング方法。 - 前記セグメンテーションネットワークは、以前学習装置により前記テスト用駐車場イメージ上で前記テスト用空き駐車領域をセグメンテーション(segmentation)して生成されたテスト用セグメンテーション情報を出力するよう事前学習された状態であり、
少なくとも一つの学習用以前駐車場イメージが取得されると、前記以前学習装置が、(i)前記学習用以前駐車場イメージを前記セグメンテーションネットワークに入力することにより、前記セグメンテーションネットワークをもって、(i−1)前記エンコーダによって、前記学習用以前駐車場イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つの学習用以前コンボリューション特徴マップを出力するようにし、(i−2)前記デコーダによって、前記学習用以前コンボリューション特徴マップに少なくとも一つのデコンボリューション演算を適用して少なくとも一つの学習用以前デコンボリューション特徴マップを出力するようにし、(i−3)前記マスキングレイヤによって、前記学習用以前デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用して前記学習用以前駐車場イメージ上で前記空き駐車領域のセグメンテーションを示す学習用以前セグメンテーション情報を出力するようにするプロセス、及び(ii)第2ロスレイヤをもって、前記学習用以前セグメンテーション情報とこれに対応する少なくとも一つのセグメンテーションGTとを参照して、一つ以上の第2ロスを算出するようにし、前記第2ロスを利用したバックプロパゲーションによって、前記第2ロスが最小化されるように前記マスキングレイヤ、前記デコーダ、及び前記エンコーダのうちの少なくとも一つのパラメータがアップデートされるプロセス、
を遂行することを特徴とする請求項8に記載のテスティング方法。 - 前記テスティング装置は、前記マスキングレイヤをもって、前記テスト用デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用するようにすることにより、前記テスト用駐車場イメージ上で、(i)一つ以上のテスト用関心駐車可能領域、(ii)一つ以上のテスト用背景領域、(iii)一つ以上のテスト用関心外駐車可能領域、及び(iv)一つ以上のテスト用駐車された駐車領域のうちの少なくとも一つをセグメンテーション(segmentation)するプロセス、
を遂行することを特徴とする請求項8に記載のテスティング方法。 - 前記テスティング装置は、前記マスキングレイヤをもって、前記テスト用空き駐車領域と前記テスト用自動車との間の一つ以上の距離を参照して、前記テスト用空き駐車領域を前記テスト用関心駐車可能領域及び前記テスト用関心外駐車可能領域にセグメンテーションするようにするプロセス、
を遂行することを特徴とする請求項10に記載のテスティング方法。 - (c)前記テスト用特定駐車可能領域に対する前記テスト用リグレッション位置情報が取得されると、前記テスティング装置が、前記テスト用自動車の前記自動駐車装置をもって、前記テスト用リグレッション位置情報を参照して、前記テスト用特定駐車可能領域内に前記テスト用自動車を駐車させるようにするプロセスを遂行する段階、
をさらに含むことを特徴とする請求項8に記載のテスティング方法。 - 駐車場の駐車可能空間を検出するために利用される自動車の自動駐車装置を学習する学習装置において、
インストラクションを格納する少なくとも一つのメモリ、及び
(I)前記駐車場の上部から前記駐車場の床方向に前記自動車の周辺領域を撮影して生成された少なくとも一つの駐車場イメージが取得されると、(i)前記駐車場イメージをセグメンテーションネットワークに入力することにより、前記セグメンテーションネットワークをもって、(i−1)エンコーダ(encoder)によって、前記駐車場イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つのコンボリューション特徴マップを出力するようにし、(i−2)デコーダ(decoder)によって、前記コンボリューション特徴マップに少なくとも一つのデコンボリューション演算を適用してデコンボリューション特徴マップを出力するようにし、(i−3)マスキングレイヤ(masking layer)によって、前記デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用して前記駐車場イメージ上で一つ以上の空き駐車領域のセグメンテーションを示すセグメンテーション情報を出力するようにするプロセス、(II)特定ROIに対応する前記デコンボリューション特徴マップをリグレッサ(regressor)に入力することにより、前記リグレッサをもって、(i−1)前記特定ROIの中心からの前記特定ROIの一つ以上の頂点に対する相対座標を生成するようにし、(i−2)前記相対座標に少なくとも一つのリグレッション演算を適用して、少なくとも一つの特定駐車可能領域(前記空き駐車領域のうちの前記特定駐車可能領域は、前記特定ROIとして決定される)に対するリグレッション位置情報を生成するようにするプロセス、及び(III)第1ロスレイヤをもって、前記リグレッション位置情報とこれに対応する少なくとも一つのROIのGT(ground truth)とを参照して一つ以上の第1ロスを算出するようにするプロセス、及び前記第1ロスを利用したバックプロパゲーションによって、前記第1ロスを最小化するように前記リグレッサを学習させるプロセスを遂行するか、他の装置をもって遂行するようにするために前記インストラクションを実行するように構成された少なくとも一つのプロセッサ、
を含むことを特徴とする学習装置。 - 前記セグメンテーションネットワークは、以前学習装置により前記駐車場イメージ上で前記空き駐車領域をセグメンテーション(segmentation)して生成されたセグメンテーション情報を出力するよう事前学習された状態であり、
少なくとも一つの学習用以前駐車場イメージが取得されると、前記以前学習装置が、(i)前記学習用以前駐車場イメージを前記セグメンテーションネットワークに入力することにより、前記セグメンテーションネットワークをもって、(i−1)前記エンコーダによって、前記学習用以前駐車場イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つの学習用以前コンボリューション特徴マップを出力するようにし、(i−2)前記デコーダによって、前記学習用以前コンボリューション特徴マップに少なくとも一つのデコンボリューション演算を適用して少なくとも一つの学習用以前デコンボリューション特徴マップを出力するようにし、(i−3)前記マスキングレイヤによって、前記学習用以前デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用して前記学習用以前駐車場イメージ上で前記空き駐車領域のセグメンテーションを示す学習用以前セグメンテーション情報を出力するようにするプロセス、及び(ii)第2ロスレイヤをもって、前記学習用以前セグメンテーション情報とこれに対応する少なくとも一つのセグメンテーションGTとを参照して、一つ以上の第2ロスを算出するようにし、前記第2ロスを利用したバックプロパゲーションによって、前記第2ロスが最小化されるように前記マスキングレイヤ、前記デコーダ、及び前記エンコーダのうちの少なくとも一つのパラメータがアップデートされるプロセス、
を遂行することを特徴とする請求項13に記載の学習装置。 - 前記プロセッサは、前記ROIのGTをジッタリング(jittering)するプロセス、及び前記第1ロスレイヤをもって、ジッタリングされた前記ROIのGTと前記リグレッション位置情報とを参照して前記第1ロスを算出するようにするプロセス、
を遂行することを特徴とする請求項13に記載の学習装置。 - 前記プロセッサは、前記ROIのGTのスケールを参照して、前記ROIのGTの前記スケールの最大値と前記スケールの最小値とを設定するプロセス、及び前記ROIのGTの前記スケールの前記最大値と前記スケールの前記最小値との平均を用いて前記ROIのGTをジッタリングするプロセス、
を遂行することを特徴とする請求項15に記載の学習装置。 - 前記プロセッサは、前記スケールの前記最大値と前記スケールの前記最小値との間から無作為に選択される一つ以上のランダムスケールを取得するプロセス、及び前記第1ロスレイヤをもって、それぞれの前記ランダムスケールと前記リグレッション位置情報とを参照して一つ以上の第3ロスを算出するようにし、それぞれの前記第3ロスを利用したバックプロパゲーションによってそれぞれの前記第3ロスを最小化するように前記リグレッサを微細調整するようにするプロセス、
を遂行することを特徴とする請求項16に記載の学習装置。 - 前記プロセッサは、前記マスキングレイヤをもって、前記デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用するようにすることにより、前記駐車場イメージ上で、(i)一つ以上の関心駐車可能領域、(ii)一つ以上の背景領域、(ii)一つ以上の関心外駐車可能領域、及び(iv)一つ以上の駐車された駐車領域のうちの少なくとも一つをセグメンテーション(segmentation)するプロセス、
を遂行することを特徴とする請求項13に記載の学習装置。 - 前記プロセッサは、前記マスキングレイヤをもって、前記空き駐車領域と前記自動車との間の一つ以上の距離を参照して、前記空き駐車領域を前記関心駐車可能領域及び前記関心外駐車可能領域にセグメンテーションするようにするプロセス、
を遂行することを特徴とする請求項18に記載の学習装置。 - 駐車場の駐車可能空間を検出するため利用される自動車の自動駐車装置をテスティングするテスティング装置において、
インストラクションを格納する少なくとも一つのメモリ、及び
(I)少なくとも一つの学習用駐車場イメージが取得されると、(i)前記学習用駐車場イメージをセグメンテーションネットワークに入力することにより、前記セグメンテーションネットワークをもって、(i−1)エンコーダ(encoder)によって、前記学習用駐車場イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つの学習用コンボリューション特徴マップを出力するようにし、(i−2)デコーダ(decoder)によって、前記学習用コンボリューション特徴マップに少なくとも一つのデコンボリューション演算を適用して学習用デコンボリューション特徴マップを出力するようにし、(i−3)マスキングレイヤ(masking layer)によって、前記学習用デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用して前記学習用駐車場イメージ上で一つ以上の学習用空き駐車領域のセグメンテーションを示す学習用セグメンテーション情報を出力するようにするプロセス、(ii)学習用特定ROIに対応する前記学習用デコンボリューション特徴マップをリグレッサ(regressor)に入力することにより、前記リグレッサをもって、(ii−1)前記学習用特定ROIの中心からの前記学習用特定ROIの一つ以上の頂点に対する学習用相対座標を生成するようにし、(ii−2)前記学習用相対座標に少なくとも一つのリグレッション演算を適用して、少なくとも一つの学習用特定駐車可能領域(前記学習用空き駐車領域のうちの前記学習用特定駐車可能領域は、前記学習用特定ROIとして決定される)に対する学習用リグレッション位置情報を生成するようにするプロセス、及び(iii)第1ロスレイヤをもって、前記学習用リグレッション位置情報と、これに対応する少なくとも一つのROIのGT(ground truth)とを参照して一つ以上の第1ロスを算出するようにするプロセス、及び前記第1ロスを利用したバックプロパゲーションによって、前記第1ロスを最小化するように前記リグレッサを学習させるプロセスを遂行した状態で、(Iー1)テスト用駐車場の上部から前記テスト用駐車場の床方向にテスト用自動車の周辺領域を撮影して生成された少なくとも一つのテスト用駐車場イメージが取得されると、前記テスト用駐車場イメージを前記セグメンテーションネットワークに入力することにより、前記セグメンテーションネットワークをもって、(I−1ーa)前記エンコーダ(encoder)によって、前記テスト用駐車場イメージに前記コンボリューション演算を適用して少なくとも一つのテスト用コンボリューション特徴マップを出力するようにし、(I−1−b)前記デコーダ(decoder)によって、前記テスト用コンボリューション特徴マップに前記デコンボリューション演算を適用してテスト用デコンボリューション特徴マップを出力するようにし、(I−1−c)前記マスキングレイヤ(masking layer)によって、前記テスト用デコンボリューション特徴マップにマスキング演算を適用して前記テスト用駐車場イメージ上で一つ以上のテスト用空き駐車領域のセグメンテーションを示すテスト用セグメンテーション情報を出力するようにするプロセス、及び(II)テスト用特定ROIに対応する前記テスト用デコンボリューション特徴マップを前記リグレッサ(regressor)に入力することにより、前記リグレッサをもって、(II−1)前記テスト用特定ROIの中心からの前記テスト用特定ROIの一つ以上の頂点に対するテスト用相対座標を生成するようにし、(II−2)前記テスト用相対座標に前記リグレッション演算を適用して、少なくとも一つのテスト用特定駐車可能領域(前記テスト用空き駐車領域のうちの前記テスト用特定駐車可能領域は、前記テスト用特定ROIとして決定される)に対するテスト用リグレッション位置情報を生成するようにするプロセスを遂行するか、他の装置をもって遂行するようにするために前記インストラクションを実行するように構成された少なくとも一つのプロセッサ、
を含むことを特徴とするテスティング装置。 - 前記セグメンテーションネットワークは、以前学習装置により前記テスト用駐車場イメージ上で前記テスト用空き駐車領域をセグメンテーション(segmentation)して生成されたテスト用セグメンテーション情報を出力するよう事前学習された状態であり、
少なくとも一つの学習用以前駐車場イメージが取得されると、前記以前学習装置が、(i)前記学習用以前駐車場イメージを前記セグメンテーションネットワークに入力することにより、前記セグメンテーションネットワークをもって、(i−1)前記エンコーダによって、前記学習用以前駐車場イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つの学習用以前コンボリューション特徴マップを出力するようにし、(i−2)前記デコーダによって、前記学習用以前コンボリューション特徴マップに少なくとも一つのデコンボリューション演算を適用して少なくとも一つの学習用以前デコンボリューション特徴マップを出力するようにし、(i−3)前記マスキングレイヤによって、前記学習用以前デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用して前記学習用以前駐車場イメージ上で前記空き駐車領域のセグメンテーションを示す学習用以前セグメンテーション情報を出力するようにするプロセス、及び(ii)第2ロスレイヤをもって、前記学習用以前セグメンテーション情報とこれに対応する少なくとも一つのセグメンテーションGTとを参照して、一つ以上の第2ロスを算出するようにし、前記第2ロスを利用したバックプロパゲーションによって、前記第2ロスが最小化されるように前記マスキングレイヤ、前記デコーダ、及び前記エンコーダのうちの少なくとも一つのパラメータがアップデートされるプロセス、
を遂行することを特徴とする請求項20に記載のテスティング装置。 - 前記プロセッサは、前記マスキングレイヤをもって、前記テスト用デコンボリューション特徴マップに少なくとも一つのマスキング演算を適用するようにすることにより、前記テスト用駐車場イメージ上で、(i)一つ以上のテスト用関心駐車可能領域、(ii)一つ以上のテスト用背景領域、(iii)一つ以上のテスト用関心外駐車可能領域、及び(iv)一つ以上のテスト用駐車された駐車領域のうちの少なくとも一つをセグメンテーション(segmentation)するプロセス、
を遂行することを特徴とする請求項20に記載のテスティング装置。 - 前記プロセッサは、前記マスキングレイヤをもって、前記テスト用空き駐車領域と前記テスト用自動車との間の一つ以上の距離を参照して、前記テスト用空き駐車領域を前記テスト用関心駐車可能領域及び前記テスト用関心外駐車可能領域にセグメンテーションするようにするプロセス、
を遂行することを特徴とする請求項22に記載のテスティング装置。 - 前記プロセッサが、(III)前記テスト用特定駐車可能領域に対する前記テスト用リグレッション位置情報が取得されると、前記テスト用自動車の前記自動駐車装置をもって、前記テスト用リグレッション位置情報を参照して、前記テスト用特定駐車可能領域内に前記テスト用自動車を駐車させるようにするプロセスを遂行するプロセス、
をさらに遂行することを特徴とする請求項20に記載のテスティング装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962799349P | 2019-01-31 | 2019-01-31 | |
US62/799,349 | 2019-01-31 | ||
US16/739,168 US10796434B1 (en) | 2019-01-31 | 2020-01-10 | Method and device for detecting parking area using semantic segmentation in automatic parking system |
US16/739,168 | 2020-01-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126636A JP2020126636A (ja) | 2020-08-20 |
JP6910664B2 true JP6910664B2 (ja) | 2021-07-28 |
Family
ID=69190641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020009860A Active JP6910664B2 (ja) | 2019-01-31 | 2020-01-24 | 自動駐車システム内のセマンティックセグメンテーションを利用した駐車領域を検出するための方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10796434B1 (ja) |
EP (1) | EP3690728B1 (ja) |
JP (1) | JP6910664B2 (ja) |
KR (1) | KR102396277B1 (ja) |
CN (1) | CN111507158B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022045877A1 (en) * | 2020-08-28 | 2022-03-03 | Mimos Berhad | A system and method for identifying occupancy of parking lots |
KR102327860B1 (ko) * | 2021-06-14 | 2021-11-17 | 주식회사 에이스뷰 | 차량용 다채널 어라운드뷰 모니터링 방법 및 시스템 |
CN113869614B (zh) * | 2021-12-03 | 2022-04-19 | 北京航空航天大学杭州创新研究院 | 一种基于时空图卷积的行人流早期预测方法 |
CN115393595B (zh) * | 2022-10-27 | 2023-02-03 | 福思(杭州)智能科技有限公司 | 分割网络模型训练方法、车道线检测方法、装置和介质 |
CN115797934B (zh) * | 2022-12-01 | 2023-12-01 | 北京百度网讯科技有限公司 | 仪表示数方法、装置、电子设备以及存储介质 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9290146B2 (en) * | 1992-05-05 | 2016-03-22 | Intelligent Technologies International, Inc. | Optical monitoring of vehicle interiors |
US20060233461A1 (en) * | 2005-04-19 | 2006-10-19 | Honeywell International Inc. | Systems and methods for transforming 2d image domain data into a 3d dense range map |
JP4497133B2 (ja) * | 2006-07-12 | 2010-07-07 | アイシン・エィ・ダブリュ株式会社 | 運転支援方法及び運転支援装置 |
JP5472538B2 (ja) * | 2011-06-14 | 2014-04-16 | 日産自動車株式会社 | 距離計測装置及び環境地図生成装置 |
US9129524B2 (en) | 2012-03-29 | 2015-09-08 | Xerox Corporation | Method of determining parking lot occupancy from digital camera images |
US10325165B2 (en) | 2014-09-30 | 2019-06-18 | Conduent Business Services, Llc | Vision-based on-street parked vehicle detection via normalized-view classifiers and temporal filtering |
WO2017074470A1 (en) * | 2015-10-30 | 2017-05-04 | Hewlett-Packard Development Company, L.P. | Skew sensor calibration |
US9446730B1 (en) * | 2015-11-08 | 2016-09-20 | Thunder Power Hong Kong Ltd. | Automatic passenger airbag switch |
US9996905B2 (en) * | 2016-03-16 | 2018-06-12 | Planet Labs, Inc. | Systems and methods for enhancing object visibility for overhead imaging |
US20180074494A1 (en) * | 2016-09-13 | 2018-03-15 | Ford Global Technologies, Llc | Passenger tracking systems and methods |
KR20180050823A (ko) * | 2016-11-07 | 2018-05-16 | 삼성전자주식회사 | 3차원의 도로 모델을 생성하는 방법 및 장치 |
US10176388B1 (en) * | 2016-11-14 | 2019-01-08 | Zoox, Inc. | Spatial and temporal information for semantic segmentation |
KR101955506B1 (ko) * | 2016-12-12 | 2019-03-11 | 주식회사 피엘케이 테크놀로지 | 대향 카메라를 이용한 대형 차량의 측면 안전 보조 장치 및 방법 |
US10296794B2 (en) * | 2016-12-20 | 2019-05-21 | Jayant Rtti | On-demand artificial intelligence and roadway stewardship system |
EP3566201A4 (en) * | 2016-12-22 | 2020-11-25 | Xevo Inc. | PROCESS AND SYSTEM FOR PROVIDING SERVICES OF ANALYSIS OF ARTIFICIAL INTELLIGENCE (AIA) FOR PERFORMANCE PREDICTION |
JP6760114B2 (ja) * | 2017-01-31 | 2020-09-23 | 富士通株式会社 | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム |
US10509947B1 (en) * | 2017-04-11 | 2019-12-17 | Zoox, Inc. | Converting multi-dimensional data for image analysis |
CN107730903A (zh) | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的违章停车和抛锚车视觉检测系统 |
CN107665603B (zh) | 2017-09-06 | 2020-06-16 | 哈尔滨工程大学 | 一种判定车位占用的实时检测方法 |
CN107730514B (zh) * | 2017-09-29 | 2021-02-12 | 北京奇宝科技有限公司 | 场景分割网络训练方法、装置、计算设备及存储介质 |
CN107719361A (zh) * | 2017-10-10 | 2018-02-23 | 深圳市豪恩汽车电子装备股份有限公司 | 基于图像视觉的自动泊车辅助方法及系统 |
US10169679B1 (en) * | 2017-10-13 | 2019-01-01 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same |
CN108133484B (zh) * | 2017-12-22 | 2022-01-28 | 北京奇虎科技有限公司 | 基于场景分割的自动驾驶处理方法及装置、计算设备 |
US11501572B2 (en) * | 2018-03-26 | 2022-11-15 | Nvidia Corporation | Object behavior anomaly detection using neural networks |
-
2020
- 2020-01-10 US US16/739,168 patent/US10796434B1/en active Active
- 2020-01-20 KR KR1020200007640A patent/KR102396277B1/ko active IP Right Grant
- 2020-01-21 CN CN202010069463.9A patent/CN111507158B/zh active Active
- 2020-01-23 EP EP20153295.9A patent/EP3690728B1/en active Active
- 2020-01-24 JP JP2020009860A patent/JP6910664B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN111507158B (zh) | 2023-11-24 |
KR102396277B1 (ko) | 2022-05-10 |
JP2020126636A (ja) | 2020-08-20 |
EP3690728C0 (en) | 2024-01-03 |
US10796434B1 (en) | 2020-10-06 |
KR20200095385A (ko) | 2020-08-10 |
CN111507158A (zh) | 2020-08-07 |
EP3690728A1 (en) | 2020-08-05 |
EP3690728B1 (en) | 2024-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6910664B2 (ja) | 自動駐車システム内のセマンティックセグメンテーションを利用した駐車領域を検出するための方法及び装置 | |
JP6982897B2 (ja) | ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置 | |
JP6923960B2 (ja) | 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP6857371B2 (ja) | 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置 | |
CN110163930B (zh) | 车道线生成方法、装置、设备、系统及可读存储介质 | |
JP6946298B2 (ja) | 画像ベースの車両位置特定のためのシステム及び方法 | |
US9846043B2 (en) | Map creation apparatus, map creation method, and computer-readable recording medium | |
JP6872260B2 (ja) | 自動車の車線変更に対する危険を警報する方法及びこれを利用した警報装置 | |
JP6857370B2 (ja) | ターゲット物体予測ネットワーク及びターゲット物体統合ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に係る最適化のための再構成可能なネットワーク基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
JP6935946B2 (ja) | セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 | |
CN111507130B (zh) | 车道级定位方法及系统、计算机设备、车辆、存储介质 | |
KR20200091319A (ko) | 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102082254B1 (ko) | 차량 인식 시스템 | |
JP6910081B2 (ja) | 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 | |
KR20190030474A (ko) | 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치 | |
JP7194130B2 (ja) | 緊急車両をリアルタイムで検出し、緊急車両によって発生すると予想される状況に対処するための走行経路を計画する方法及び装置 | |
CN112753038A (zh) | 识别车辆变道趋势的方法和装置 | |
CN114543819A (zh) | 车辆定位方法、装置、电子设备及存储介质 | |
JP7461399B2 (ja) | 原動機付き車両の走行動作を補助する方法及びアシスト装置並びに原動機付き車両 | |
JP6853543B2 (ja) | 自律走行に対する論理的根拠を提示するために、管理者が物体検出器の検出プロセスを評価できるように支援する方法及び装置 | |
KR20140106126A (ko) | 전방위 영상 기반 자동 주차 시스템 및 방법 | |
CN115346191A (zh) | 用于校准的方法和设备 | |
CN115249407A (zh) | 指示灯状态识别方法、装置、电子设备、存储介质及产品 | |
CN112215042A (zh) | 一种车位限位器识别方法及其系统、计算机设备 | |
WO2022226989A1 (en) | System and method for obstacle-free driving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210630 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6910664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |