JP7371269B2 - 自動車のカメラピッチをキャリブレーションする方法及び装置、並びにそのための消滅点推定モデルをコンティニュアルラーニングさせる方法 - Google Patents
自動車のカメラピッチをキャリブレーションする方法及び装置、並びにそのための消滅点推定モデルをコンティニュアルラーニングさせる方法 Download PDFInfo
- Publication number
- JP7371269B2 JP7371269B2 JP2022548049A JP2022548049A JP7371269B2 JP 7371269 B2 JP7371269 B2 JP 7371269B2 JP 2022548049 A JP2022548049 A JP 2022548049A JP 2022548049 A JP2022548049 A JP 2022548049A JP 7371269 B2 JP7371269 B2 JP 7371269B2
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- vanishing point
- lane
- target object
- calibration device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 239000011295 pitch Substances 0.000 claims description 369
- 238000001514 detection method Methods 0.000 claims description 68
- 230000006978 adaptation Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 12
- 238000009499 grossing Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 13
- 230000008901 benefit Effects 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 3
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 2
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 2
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/40—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
- B60R2300/402—Image calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/804—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Description
本発明は、従来に比べて正確に自動車のカメラピッチを推定することができるようにすることを他の目的とする。
Claims (22)
- 自動車のカメラピッチをキャリブレーションする方法において、
(a)自動車の運行中にカメラからの走行イメージが獲得されると、キャリブレーション装置が、前記走行イメージをオブジェクトディテクションネットワークと車線ディテクションネットワークとにそれぞれ入力することで、前記オブジェクトディテクションネットワークによって前記走行イメージ上のオブジェクトを検出してオブジェクト検出情報を出力させ、前記車線ディテクションネットワークによって前記走行イメージ上の車線を検出して車線検出情報を出力させる段階と、
(b)前記キャリブレーション装置が、前記オブジェクト検出情報をプロファイリングすることによるオブジェクトのそれぞれに対応するオブジェクトプロファイリング情報と、前記車線検出情報をプロファイリングすることによる車線のそれぞれに対応する車線プロファイリング情報とを生成し、前記オブジェクトプロファイリング情報をオブジェクト基盤ピッチ推定モジュールに入力することで、前記オブジェクト基盤ピッチ推定モジュールによって(i)前記オブジェクトプロファイリング情報を参照することで、前記オブジェクトのうち第1ターゲットオブジェクトを選定し、前記第1ターゲットオブジェクトの第1高さを利用した第1ピッチ推定を通じて第1ピッチを生成させ、(ii)前記オブジェクトプロファイリング情報を参照することで、前記オブジェクトのうち第2ターゲットオブジェクトを選定させ、前記第2ターゲットオブジェクトの幅(width)を利用した第2ピッチ推定を通じて第2ピッチを生成させるプロセスと、前記走行イメージを分析して消滅点を検出する消滅点推定ネットワークの消滅点検出情報と前記車線プロファイリング情報とを車線基盤ピッチ推定モジュールに入力することで、前記車線基盤ピッチ推定モジュールによって、(i)前記車線プロファイリング情報を利用した第3ピッチ推定を通じて第3ピッチを生成させ、(ii)前記消滅点検出情報を利用した第4ピッチ推定を通じて第4ピッチを生成させるプロセスと、を遂行する段階と、
(c)前記キャリブレーション装置が、前記第1ピッチ乃至前記第4ピッチをピッチ決定モジュールに入力することで、前記ピッチ決定モジュールによって前記第1ピッチ乃至前記第4ピッチをアンサンブルすることで、前記走行イメージに対応する決定ピッチを出力させる段階と、
を含む方法。 - 前記(c)の段階で、
前記キャリブレーション装置は、前記ピッチ決定モジュールによって、前記オブジェクトプロファイリング情報を参照することで、前記オブジェクトのうち第3ターゲットオブジェクトを選定し、前記第3ピッチを利用して前記第3ターゲットオブジェクトの第2高さを演算した後、前記第2高さが高さスレッショルド以内であるか否かを確認して前記第3ピッチを検証し、(i)前記第3ピッチが有効な場合には、前記第3ピッチを前記決定ピッチとして出力させ、(ii)前記第3ピッチが有効でない場合には、前記第1ピッチに対応する第1ターゲットオブジェクトと前記第2ピッチに対応する第2ターゲットオブジェクトとを比較し、前記第1ターゲットオブジェクトと前記第2ターゲットオブジェクトとが同一であれば、前記第1ピッチ及び前記第2ピッチのうちいずれか一つを前記決定ピッチとして出力させ、前記第1ターゲットオブジェクトと前記第2ターゲットオブジェクトとが同一でなければ、前記第1ターゲットオブジェクトと前記第2ターゲットオブジェクトとのうち前記自動車とのラテラルディスタンスが小さい特定のターゲットオブジェクトに対応する特定のピッチを前記決定ピッチとして出力させ、(iii)前記走行イメージから検出されたオブジェクト及び車線がない場合には、前記第4ピッチを前記決定ピッチとして出力させる、請求項1に記載の方法。 - 前記キャリブレーション装置は、前記ピッチ決定モジュールによって、前記自動車とのラテラルディスタンスが第1ディスタンススレッショルド以下であり、バウンディングボックスの切断がなく、オブジェクトクラスが自動車クラスであり、重複していない第1候補オブジェクトのうち前記ラテラルディスタンスが最も小さい第1特定のオブジェクトを前記第3ターゲットオブジェクトに選定させる、請求項2に記載の方法。
- 前記(c)の段階で、
前記キャリブレーション装置は、前記ピッチ決定モジュールによって前記決定ピッチを以前フレームにおける以前ピッチ値とスムージング(smoothing)を適用して前記決定ピッチに対するピッチスムージングを遂行し、ピッチ変化スレッショルドを使用してフレーム間の最大ピッチ変化を制限するトレランス(tolerance)ハンドリングを遂行させる、請求項1に記載の方法。 - (d)前記キャリブレーション装置は、前記決定ピッチと前記第4ピッチとを参照することでピッチロスを獲得し、前記ピッチロスを利用して前記消滅点推定ネットワークをオン-ビークルコンティニュアルラーニングする段階
をさらに含む、請求項1に記載の方法。 - 前記キャリブレーション装置は、(i)前記自動車の運行中に、前記ピッチロスを利用して前記消滅点推定ネットワークをインスタンス-ワイズインクリメンタルラーニング(instance-wise incremental learning)することで迅速な適応(fast adaptation)となるようにし、(ii)前記自動車の走行完了後、走行中にサンプリングされたデータを利用して前記消滅点推定ネットワークをバランス良く(balanced)コンティニュアルラーニングすることで前記迅速な適応により発生する可能性のあるカタストロフィックフォーゲッティング(catastrophic forgetting)現象を防止する、請求項5に記載の方法。
- 前記キャリブレーション装置は、(i)前記自動車の運行中に、前記ピッチロスを利用して前記消滅点推定ネットワークをインスタンス-ワイズインクリメンタルラーニングすることで迅速な適応となるようにし、(ii)前記インスタンス-ワイズインクリメンタルラーニングに使用された、サンプリングされたデータをラーニングサーバに伝送することで、前記ラーニングサーバによって前記サンプリングされたデータを利用して前記消滅点推定ネットワークに対応するリファレンス(reference)消滅点推定ネットワークをサーバ-サイドコンティニュアルラーニングして、前記サーバ-サイドコンティニュアルラーニングによりアップデートされたパラメータを前記キャリブレーション装置に伝送させ、(iii)前記自動車の走行完了後、前記ラーニングサーバから受信された前記パラメータを利用して前記消滅点推定ネットワークをアップデートする、請求項5に記載の方法。
- (e)前記キャリブレーション装置は、(i)前記オン-デバイスラーニングされた学習済み消滅点推定ネットワークモデルをラーニングサーバに伝送することで、前記ラーニングサーバによって少なくとも一つの他の自動車から伝送された少なくとも一つの他の学習済み消滅点推定ネットワークモデルと前記学習済み消滅点推定ネットワークモデルとを評価してベスト消滅点推定ネットワークモデルを選定させ、前記ベスト消滅点推定ネットワークモデルを前記キャリブレーション装置に伝送させ、(ii)前記ラーニングサーバから伝送された前記ベスト消滅点推定ネットワークモデルを利用して前記消滅点推定ネットワークをアップデートする段階と、
をさらに含む、請求項5に記載の方法。 - 前記(b)の段階で、
前記キャリブレーション装置は、前記オブジェクト基盤ピッチ推定モジュールによって、前記オブジェクトプロファイリング情報を参照することで、前記自動車とのラテラルディスタンスが第2ディスタンススレッショルド以下であり、バウンディングボックスの切断がなく、オブジェクトクラスが自動車クラスであり、重複していない第2候補オブジェクトのうち前記ラテラルディスタンスが最も小さい第2特定のオブジェクトを前記第1ターゲットオブジェクトに選定し、前記第1ターゲットオブジェクトの検出ヒストリーを参照することで、前記第1ターゲットオブジェクトの平均高さを獲得し、前記平均高さが最小高さスレッショルド以上であり最大高さスレッショルド以下である場合には、前記平均高さを前記第1高さに決定させ、前記平均高さが前記最小高さスレッショルド未満であるか前記最大高さスレッショルドを超過する場合には、前記最小高さスレッショルドと前記最大高さスレッショルドとの平均値を前記第1高さに決定させる、請求項1に記載の方法。 - 前記(b)の段階で、
前記キャリブレーション装置は、前記オブジェクト基盤ピッチ推定モジュールによって、前記オブジェクトプロファイリング情報を参照することで、前記自動車とのラテラルディスタンスが第3ディスタンススレッショルド以下であり、バウンディングボックスの切断がなく、オブジェクトクラスが自動車クラスであり、重複しておらず、2Dバウンディングボックスと3Dバウンディングボックスとの差がボックス差スレッショルド以下であり、バウンディングボックスの縦横比が縦横比スレッショルド以上である第3候補オブジェクトのうち前記ラテラルディスタンスが最も小さい第3特定のオブジェクトを前記第2ターゲットオブジェクトに選定させる、請求項1に記載の方法。 - 前記(b)の段階で、
前記キャリブレーション装置は、前記車線基盤ピッチ推定モジュールによって、前記車線プロファイリング情報を参照することで、直線であり、長さスレッショルド以上であり、前記自動車の座標系上で互いに平行である第1車線と第2車線とを選択し、前記第1車線と前記第2車線とを利用してターゲット消滅点を検出し、前記ターゲット消滅点を利用して前記第3ピッチ推定を遂行させる、請求項1に記載の方法。 - 自動車のカメラピッチをキャリブレーションするキャリブレーション装置において、
自動車のカメラピッチをキャリブレーションするためのインストラクションが格納されたメモリと、
前記メモリに格納された前記インストラクションによって自動車のカメラピッチをキャリブレーションするための動作を遂行するプロセッサと、
を含み、
前記プロセッサは、(I)自動車の運行中にカメラからの走行イメージが獲得されると、前記走行イメージをオブジェクトディテクションネットワークと車線ディテクションネットワークとにそれぞれ入力することで、前記オブジェクトディテクションネットワークによって前記走行イメージ上のオブジェクトを検出してオブジェクト検出情報を出力させ、前記車線ディテクションネットワークによって前記走行イメージ上の車線を検出して車線検出情報を出力させるステップと、(II)前記オブジェクト検出情報をプロファイリングすることによるオブジェクトのそれぞれに対応するオブジェクトプロファイリング情報と、前記車線検出情報をプロファイリングすることによる車線のそれぞれに対応する車線プロファイリング情報とを生成し、前記オブジェクトプロファイリング情報をオブジェクト基盤ピッチ推定モジュールに入力することで、前記オブジェクト基盤ピッチ推定モジュールによって(i)前記オブジェクトプロファイリング情報を参照することで、前記オブジェクトのうち第1ターゲットオブジェクトを選定し、前記第1ターゲットオブジェクトの第1高さを利用した第1ピッチ推定を通じて第1ピッチを生成させ、(ii)前記オブジェクトプロファイリング情報を参照することで、前記オブジェクトのうち第2ターゲットオブジェクトを選定し、前記第2ターゲットオブジェクトの幅(width)を利用した第2ピッチ推定を通じて第2ピッチを生成させるプロセスと、前記走行イメージを分析して消滅点を検出する消滅点推定ネットワークの消滅点検出情報と前記車線プロファイリング情報とを車線基盤ピッチ推定モジュールに入力することで、前記車線基盤ピッチ推定モジュールによって、(i)前記車線プロファイリング情報を利用した第3ピッチ推定を通じて第3ピッチを生成させ、(ii)前記消滅点検出情報を利用した第4ピッチ推定を通じて第4ピッチを生成させるプロセスと、を遂行するステップと、(III)前記第1ピッチ乃至前記第4ピッチをピッチ決定モジュールに入力することで、前記ピッチ決定モジュールによって前記第1ピッチ乃至前記第4ピッチをアンサンブルすることで、前記走行イメージに対応する決定ピッチを出力させるステップと、を遂行する、キャリブレーション装置。 - 前記プロセッサは、前記(III)のステップで、前記ピッチ決定モジュールによって、前記オブジェクトプロファイリング情報を参照することで、前記オブジェクトのうち第3ターゲットオブジェクトを選定し、前記第3ピッチを利用して前記第3ターゲットオブジェクトの第2高さを演算した後、前記第2高さが高さスレッショルド以内であるか否かを確認して前記第3ピッチを検証し、(i)前記第3ピッチが有効な場合には、前記第3ピッチを前記決定ピッチとして出力させ、(ii)前記第3ピッチが有効でない場合には、前記第1ピッチに対応する第1ターゲットオブジェクトと前記第2ピッチに対応する第2ターゲットオブジェクトとを比較し、前記第1ターゲットオブジェクトと前記第2ターゲットオブジェクトとが同一であれば、前記第1ピッチ及び前記第2ピッチのうちいずれか一つを前記決定ピッチとして出力させ、前記第1ターゲットオブジェクトと前記第2ターゲットオブジェクトとが同一でなければ、前記第1ターゲットオブジェクトと前記第2ターゲットオブジェクトとのうち前記自動車とのラテラルディスタンスが小さい特定のターゲットオブジェクトに対応する特定のピッチを前記決定ピッチとして出力させ、(iii)前記走行イメージから検出されたオブジェクト及び車線がない場合には、前記第4ピッチを前記決定ピッチとして出力させる、請求項12に記載のキャリブレーション装置。
- 前記プロセッサは、前記ピッチ決定モジュールによって、前記自動車とのラテラルディスタンスが第1ディスタンススレッショルド以下であり、バウンディングボックスの切断がなく、オブジェクトクラスが自動車クラスであり、重複していない第1候補オブジェクトのうち前記ラテラルディスタンスが最も小さい第1特定のオブジェクトを前記第3ターゲットオブジェクトに選定させる、請求項13に記載のキャリブレーション装置。
- 前記プロセッサは、前記(III)のステップで、前記ピッチ決定モジュールによって前記決定ピッチを以前フレームにおける以前ピッチ値とスムージング(smoothing)を適用して前記決定ピッチに対するピッチスムージングを遂行し、ピッチ変化スレッショルドを使用してフレーム間の最大ピッチ変化を制限するトレランス(tolerance)ハンドリングを遂行させる、請求項12に記載のキャリブレーション装置。
- 前記プロセッサは、(IV)前記決定ピッチと前記第4ピッチとを参照することでピッチロスを獲得し、前記ピッチロスを利用して前記消滅点推定ネットワークをオン-ビークルコンティニュアルラーニングするステップをさらに遂行する、請求項12に記載のキャリブレーション装置。
- 前記プロセッサは、(i)前記自動車の運行中に、前記ピッチロスを利用して前記消滅点推定ネットワークをインスタンス-ワイズインクリメンタルラーニング(instance-wise incremental learning)することで迅速な適応となるようにし、(ii)前記自動車の走行完了後、走行中にサンプリングされたデータを利用して前記消滅点推定ネットワークをバランス良く(balanced)コンティニュアルラーニングすることで前記迅速な適応により発生する可能性のあるカタストロフィックフォーゲッティング(catastrophic forgetting)現象を防止する、請求項16に記載のキャリブレーション装置。
- 前記プロセッサは、(i)前記自動車の運行中に、前記ピッチロスを利用して前記消滅点推定ネットワークをインスタンス-ワイズインクリメンタルラーニングすることで迅速な適応となるようにし、(ii)前記インスタンス-ワイズインクリメンタルラーニングに使用された、サンプリングされたデータをラーニングサーバに伝送することで、前記ラーニングサーバによって前記サンプリングされたデータを利用して前記消滅点推定ネットワークに対応するリファレンス(reference)消滅点推定ネットワークをサーバ-サイドコンティニュアルラーニングして、前記サーバ-サイドコンティニュアルラーニングによりアップデートされたパラメータを前記キャリブレーション装置に伝送させ、(iii)前記自動車の走行完了後、前記ラーニングサーバから受信された前記パラメータを利用して前記消滅点推定ネットワークをアップデートする、請求項16に記載のキャリブレーション装置。
- 前記プロセッサは、(V)(i)前記オン-デバイスラーニングされた学習済み消滅点推定ネットワークモデルをラーニングサーバに伝送することで、前記ラーニングサーバによって少なくとも一つの他の自動車から伝送された少なくとも一つの他の学習済み消滅点推定ネットワークモデルと前記学習済み消滅点推定ネットワークモデルとを評価してベスト消滅点推定ネットワークモデルを選定させ、前記ベスト消滅点推定ネットワークモデルを前記キャリブレーション装置に伝送させ、(ii)前記ラーニングサーバから伝送された前記ベスト消滅点推定ネットワークモデルを利用して前記消滅点推定ネットワークをアップデートするステップをさらに遂行する、請求項16に記載のキャリブレーション装置。
- 前記プロセッサは、前記(II)のステップで、前記オブジェクト基盤ピッチ推定モジュールによって、前記オブジェクトプロファイリング情報を参照することで、前記自動車とのラテラルディスタンスが第2ディスタンススレッショルド以下であり、バウンディングボックスの切断がなく、オブジェクトクラスが自動車クラスであり、重複していない第2候補オブジェクトのうち前記ラテラルディスタンスが最も小さい第2特定のオブジェクトを前記第1ターゲットオブジェクトに選定し、前記第1ターゲットオブジェクトの検出ヒストリーを参照することで、前記第1ターゲットオブジェクトの平均高さを獲得し、前記平均高さが最小高さスレッショルド以上であり最大高さスレッショルド以下である場合には、前記平均高さを前記第1高さに決定させ、前記平均高さが前記最小高さスレッショルド未満であるか前記最大高さスレッショルドを超過する場合には、前記最小高さスレッショルドと前記最大高さスレッショルドとの平均値を前記第1高さに決定させる、請求項12に記載のキャリブレーション装置。
- 前記プロセッサは、前記(II)のステップで、前記オブジェクト基盤ピッチ推定モジュールによって、前記オブジェクトプロファイリング情報を参照することで、前記自動車とのラテラルディスタンスが第3ディスタンススレッショルド以下であり、バウンディングボックスの切断がなく、オブジェクトクラスが自動車クラスであり、重複しておらず、2Dバウンディングボックスと3Dバウンディングボックスとの差がボックス差スレッショルド以下であり、バウンディングボックスの縦横比が縦横比スレッショルド以上である第3候補オブジェクトのうち前記ラテラルディスタンスが最も小さい第3特定のオブジェクトを前記第2ターゲットオブジェクトに選定させる、請求項12に記載のキャリブレーション装置。
- 前記プロセッサは、前記(II)のステップで、前記車線基盤ピッチ推定モジュールによって、前記車線プロファイリング情報を参照することで、直線であり、長さスレッショルド以上であり、前記自動車の座標系上で互いに平行である第1車線と第2車線とを選択し、前記第1車線と前記第2車線とを利用してターゲット消滅点を検出し、前記ターゲット消滅点を利用して前記第3ピッチ推定を遂行させる、請求項12に記載のキャリブレーション装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063014884P | 2020-04-24 | 2020-04-24 | |
US63/014,884 | 2020-04-24 | ||
US17/125,087 US11080544B1 (en) | 2020-04-24 | 2020-12-17 | Method and device for calibrating pitch of camera on vehicle and method and device for continual learning of vanishing point estimation model to be used for calibrating the pitch |
US17/125,087 | 2020-12-17 | ||
PCT/KR2021/003404 WO2021215672A1 (en) | 2020-04-24 | 2021-03-19 | Method and device for calibrating pitch of camera on vehicle and method and device for continual learning of vanishing point estimation model to be used for calibrating the pitch |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023514163A JP2023514163A (ja) | 2023-04-05 |
JP7371269B2 true JP7371269B2 (ja) | 2023-10-30 |
Family
ID=77063390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022548049A Active JP7371269B2 (ja) | 2020-04-24 | 2021-03-19 | 自動車のカメラピッチをキャリブレーションする方法及び装置、並びにそのための消滅点推定モデルをコンティニュアルラーニングさせる方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11080544B1 (ja) |
EP (1) | EP3901821A1 (ja) |
JP (1) | JP7371269B2 (ja) |
KR (1) | KR102635090B1 (ja) |
CN (1) | CN115243932A (ja) |
WO (1) | WO2021215672A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113781579B (zh) * | 2021-09-10 | 2022-11-11 | 浙江大学 | 一种全景红外相机几何标定方法 |
US20230136214A1 (en) * | 2021-10-29 | 2023-05-04 | Omnitracs, Llc | Highly-accurate and self-adjusting imaging sensor auto-calibration for in-vehicle advanced driver assistance system (adas) or other system |
CN116563650B (zh) * | 2023-07-10 | 2023-10-13 | 邦世科技(南京)有限公司 | 一种基于深度学习的终板炎退变分级方法及系统 |
CN117629106B (zh) * | 2023-12-29 | 2024-06-14 | 中国人民解放军国防科技大学 | 一种多参考面结构体靶标装置及其制备方法、测试方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196359A (ja) | 2004-01-05 | 2005-07-21 | Honda Motor Co Ltd | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム |
US20070154068A1 (en) | 2006-01-04 | 2007-07-05 | Mobileye Technologies, Ltd. | Estimating Distance To An Object Using A Sequence Of Images Recorded By A Monocular Camera |
JP2019034664A (ja) | 2017-08-18 | 2019-03-07 | ソニーセミコンダクタソリューションズ株式会社 | 制御装置および制御システム |
JP2019182415A (ja) | 2018-04-17 | 2019-10-24 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | 自動運転車両(adv)に用いるピッチ角の補正方法 |
WO2019233286A1 (zh) | 2018-06-05 | 2019-12-12 | 北京市商汤科技开发有限公司 | 视觉定位方法、装置、电子设备及系统 |
WO2020014683A1 (en) | 2018-07-13 | 2020-01-16 | Kache.AI | Systems and methods for autonomous object detection and vehicle following |
US20200126244A1 (en) | 2018-10-23 | 2020-04-23 | Samsung Electronics Co., Ltd. | Training method for detecting vanishing point and method and apparatus for detecting vanishing point |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8577083B2 (en) * | 2009-11-25 | 2013-11-05 | Honeywell International Inc. | Geolocating objects of interest in an area of interest with an imaging system |
US9286678B2 (en) * | 2011-12-28 | 2016-03-15 | Pelco, Inc. | Camera calibration using feature identification |
BR112017025107A2 (pt) * | 2015-05-26 | 2018-07-31 | Crown Equipment Corporation | sistema e método para calibrar um dispositivo de captura de imagem para um veículo de manuseamento de materiais, e, veículo de manuseamento de materiais |
KR20180022277A (ko) * | 2016-08-24 | 2018-03-06 | 김정태 | 블랙박스영상 기반 차간거리 측정 시스템 |
US10473136B2 (en) * | 2017-05-25 | 2019-11-12 | Ford Global Technologies, Llc | Vehicle seating cushion with snap-fit fasteners to interconnect with snap-fit receivers on a structural support |
CN110570475A (zh) * | 2018-06-05 | 2019-12-13 | 上海商汤智能科技有限公司 | 车载摄像头自标定方法及装置和车辆驾驶方法及装置 |
JP6956051B2 (ja) * | 2018-09-03 | 2021-10-27 | 株式会社東芝 | 画像処理装置、運転支援システム、画像処理方法及びプログラム |
CN110412603B (zh) * | 2019-07-22 | 2023-07-04 | 昆山伟宇慧创智能科技有限公司 | 一种用于车道偏离计算的标定参数自适应更新方法 |
-
2020
- 2020-12-17 US US17/125,087 patent/US11080544B1/en active Active
-
2021
- 2021-03-17 EP EP21163049.6A patent/EP3901821A1/en active Pending
- 2021-03-19 WO PCT/KR2021/003404 patent/WO2021215672A1/en active Application Filing
- 2021-03-19 JP JP2022548049A patent/JP7371269B2/ja active Active
- 2021-03-19 CN CN202180019716.4A patent/CN115243932A/zh active Pending
- 2021-03-19 KR KR1020217042548A patent/KR102635090B1/ko active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196359A (ja) | 2004-01-05 | 2005-07-21 | Honda Motor Co Ltd | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム |
US20070154068A1 (en) | 2006-01-04 | 2007-07-05 | Mobileye Technologies, Ltd. | Estimating Distance To An Object Using A Sequence Of Images Recorded By A Monocular Camera |
JP2019034664A (ja) | 2017-08-18 | 2019-03-07 | ソニーセミコンダクタソリューションズ株式会社 | 制御装置および制御システム |
JP2019182415A (ja) | 2018-04-17 | 2019-10-24 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | 自動運転車両(adv)に用いるピッチ角の補正方法 |
WO2019233286A1 (zh) | 2018-06-05 | 2019-12-12 | 北京市商汤科技开发有限公司 | 视觉定位方法、装置、电子设备及系统 |
WO2020014683A1 (en) | 2018-07-13 | 2020-01-16 | Kache.AI | Systems and methods for autonomous object detection and vehicle following |
US20200126244A1 (en) | 2018-10-23 | 2020-04-23 | Samsung Electronics Co., Ltd. | Training method for detecting vanishing point and method and apparatus for detecting vanishing point |
Non-Patent Citations (1)
Title |
---|
Bo Li et al.,"Pitch angle estimation using a Vehicle-Mounted monocular camera for range measurement",2014 12th International Conference on Signal Processing (ICSP),米国,IEEE,2014年10月19日,pp.1161-1168 |
Also Published As
Publication number | Publication date |
---|---|
US11080544B1 (en) | 2021-08-03 |
KR102635090B1 (ko) | 2024-02-13 |
EP3901821A1 (en) | 2021-10-27 |
KR20220000945A (ko) | 2022-01-04 |
CN115243932A (zh) | 2022-10-25 |
JP2023514163A (ja) | 2023-04-05 |
WO2021215672A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7371269B2 (ja) | 自動車のカメラピッチをキャリブレーションする方法及び装置、並びにそのための消滅点推定モデルをコンティニュアルラーニングさせる方法 | |
US11275382B2 (en) | Autonomous driving system | |
US7532109B2 (en) | Vehicle obstacle verification system | |
US20150239472A1 (en) | Vehicle-installed obstacle detection apparatus having function for judging motion condition of detected object | |
US11506502B2 (en) | Robust localization | |
WO2016117602A1 (ja) | 車両制御装置及び車両制御方法 | |
JP6302519B2 (ja) | 車両の運転支援装置 | |
JP2019211830A (ja) | 車線変更推定装置および車線変更推定方法と、車両制御装置および車両制御方法 | |
WO2020066505A1 (ja) | 認識装置 | |
JP4561092B2 (ja) | 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両 | |
JP6936098B2 (ja) | 対象物推定装置 | |
GB2576206A (en) | Sensor degradation | |
WO2023072135A1 (zh) | 车辆安全行驶的评估方法、装置、车辆及存储介质 | |
WO2019172104A1 (ja) | 移動体挙動予測装置 | |
CN109753841B (zh) | 车道线识别方法和装置 | |
JP7445501B2 (ja) | 画像処理装置および画像処理方法 | |
JP6115429B2 (ja) | 自車位置認識装置 | |
JP2017154516A (ja) | 衝突判定装置、衝突判定方法、およびプログラム | |
KR101394770B1 (ko) | 곡선 차선 모델을 이용한 영상 안정화 방법 및 시스템 | |
JP6609292B2 (ja) | 車外環境認識装置 | |
CN116476840B (zh) | 变道行驶方法、装置、设备及存储介质 | |
JP2019148889A (ja) | 道路境界検出装置 | |
JP5682302B2 (ja) | 走行道路推定装置、方法およびプログラム | |
KR20230042904A (ko) | 센서 정보 융합 방법 및 장치와 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 | |
JP6306429B2 (ja) | 操舵制御システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7371269 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |