JP2021051720A - カメラをキャリブレーションするための方法及び装置 - Google Patents

カメラをキャリブレーションするための方法及び装置 Download PDF

Info

Publication number
JP2021051720A
JP2021051720A JP2020036469A JP2020036469A JP2021051720A JP 2021051720 A JP2021051720 A JP 2021051720A JP 2020036469 A JP2020036469 A JP 2020036469A JP 2020036469 A JP2020036469 A JP 2020036469A JP 2021051720 A JP2021051720 A JP 2021051720A
Authority
JP
Japan
Prior art keywords
point cloud
image
sequence
point
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020036469A
Other languages
English (en)
Other versions
JP6967098B2 (ja
Inventor
シュアン ヂァン,
Shuang Zhang
シュアン ヂァン,
シャン リウ,
Xiang Liu
シャン リウ,
ビン ガオ,
Bin Gao
ビン ガオ,
シャオシン ヂュ,
Xiaoxing Zhu
シャオシン ヂュ,
ファン ヤン,
Fan Yang
ファン ヤン,
ジュンピン ワン,
Junping Wang
ジュンピン ワン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021051720A publication Critical patent/JP2021051720A/ja
Application granted granted Critical
Publication of JP6967098B2 publication Critical patent/JP6967098B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

【課題】点群データによってカメラをキャリブレーションするための方法及び装置を提供する。【解決手段】方法は、少なくとも一組の同時刻に取り込まれた初期画像と点群データを含み、初期画像が無人運転車両に取り付けられたカメラにより取り込まれ、点群データが無人運転車両に取り付けられたレーダにより取り込まれる画像点群シーケンスを取得するステップと、画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定するステップと、目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上メラの補正パラメータを確定するステップと、を含む。【選択図】図2

Description

本開示の実施例はデータ処理技術分野に関し、具体的にはカメラをキャリブレーションするための方法及び装置に関する。
車両が人々の生活空間を大きく拡張しており、人々の日常生活及び国民経済において重要な役割を有し、自動車産業は既に中国の国民経済の支柱産業となっている。
技術の進歩に伴い、現在の車両に複数種の電子機器が搭載され、車両の各種運転状態及び環境情報へのモニタリングが実現され、車両の安全性が向上された。
本開示の実施例はカメラをキャリブレーションするための方法及び装置を提供する。
第1態様において、本開示の実施例は、カメラをキャリブレーションするための方法を提供し、該方法は、画像点群シーケンスを取得するステップであって、上記画像点群シーケンスは少なくとも一組の同時刻に取り込まれた初期画像と点群データを含み、初期画像は無人運転車両に取り付けられたカメラにより取り込まれ、点群データは無人運転車両に取り付けられたレーダにより取り込まれる、ステップと、上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定するステップと、目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定するステップと、を含む。
いくつかの実施例において、上記画像点群シーケンスは、無人運転車両が直線に沿って等速で走行し、無人運転車両に取り付けられた上記カメラにより設定時間おきに画像を取り込み、無人運転車両に取り付けられたレーダにより上記設定時間おきに点群データを取り込むように取得される。
いくつかの実施例において、上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定するステップは、上記画像点群シーケンスに基づいて上記無人運転車両の実走行軌跡を確定するステップと、上記実走行軌跡における、上記画像点群シーケンスの各組の画像点群における初期画像に対応する位置点を確定し、上記画像点群シーケンスに対応する位置点シーケンスを得るステップと、上記位置点シーケンスにおける位置点について、該位置点において上記初期画像に対応する目標点群データを取得するステップと、を含む。
いくつかの実施例において、上記画像点群シーケンスに基づいて上記無人運転車両の実走行軌跡を確定するステップは、上記画像点群シーケンスにおける各組の画像点群に含まれる点群データに基づいて、上記無人運転車両の3次元空間におけるマーク点を確定し、上記点群データシーケンスに対応するマーク点シーケンスを得るステップと、上記マーク点シーケンスにおけるマーク点の順位に基づいてマーク点をフィッティングし、上記無人運転車両の実走行軌跡を得るステップと、を含む。
いくつかの実施例において、上記画像点群シーケンスにおける各組の画像点群に含まれる点群データに基づいて、上記無人運転車両の3次元空間におけるマーク点を確定するステップは、点群データの3次元空間における角度情報を確定し、上記角度情報に基づいて上記無人運転車両の3次元空間におけるマーク点を確定するステップを含む。
いくつかの実施例において、上記実走行軌跡における、上記画像点群シーケンスの各組の画像点群における初期画像に対応する位置点を確定するステップは、上記マーク点を対応する各組の画像点群における初期画像の位置点に設定するステップを含む。
いくつかの実施例において、該位置点において上記初期画像に対応する目標点群データを取得するステップは、3次元空間の上記マーク点において目標点群データを取得するステップを含む。
いくつかの実施例において、目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定するステップは、初期画像から特徴点集合を取得するステップと、上記目標点群データにおける上記特徴点集合に対応する少なくとも1つの点群特徴データを確定するステップと、上記少なくとも1つの点群特徴データの間の位置関係及び角度関係に基づいて、上記カメラの補正パラメータを確定するステップと、を含む。
第2態様において、本開示の実施例はカメラをキャリブレーションするための装置を提供し、該装置は、画像点群シーケンスを取得するように構成される画像点群シーケンス取得ユニットであって、上記画像点群シーケンスは少なくとも一組の同時刻に取り込まれた初期画像と点群データを含み、初期画像は無人運転車両に取り付けられたカメラにより取り込まれ、点群データは無人運転車両に取り付けられたレーダにより取り込まれる、画像点群シーケンス取得ユニットと、上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定するように構成される目標点群データ確定ユニットと、目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定するように構成される補正パラメータ取得ユニットと、を備える。
いくつかの実施例において、上記画像点群シーケンスは、無人運転車両が直線に沿って等速で走行し、無人運転車両に取り付けられた上記カメラにより設定時間おきに画像を取り込み、無人運転車両に取り付けられたレーダにより上記設定時間おきに点群データを取り込むように取得される。
いくつかの実施例において、上記目標点群データ確定ユニットは、上記画像点群シーケンスに基づいて上記無人運転車両の実走行軌跡を確定するように構成される実走行軌跡確定サブユニットと、上記実走行軌跡における、上記画像点群シーケンスの各組の画像点群における初期画像に対応する位置点を確定し、上記画像点群シーケンスに対応する位置点シーケンスを得るように構成される位置点確定サブユニットと、上記位置点シーケンスにおける位置点について、該位置点において上記初期画像に対応する目標点群データを取得するように構成される目標点群データ取得サブユニットと、を備える。
いくつかの実施例において、上記実走行軌跡確定サブユニットは、上記画像点群シーケンスにおける各組の画像点群に含まれる点群データに基づいて、上記無人運転車両の3次元空間におけるマーク点を確定し、上記点群データシーケンスに対応するマーク点シーケンスを得るように構成されるマーク点確定モジュールと、上記マーク点シーケンスにおけるマーク点の順位に基づいてマーク点をフィッティングし、上記無人運転車両の実走行軌跡を得るように構成される実走行軌跡フィッティングモジュールと、を備える。
いくつかの実施例において、上記マーク点確定モジュールは、点群データの3次元空間における角度情報を確定し、上記角度情報に基づいて上記無人運転車両の3次元空間におけるマーク点を確定するように構成されるマーク点確定サブモジュールを備える。
いくつかの実施例において、上記位置点確定サブユニットは、上記マーク点を対応する各組の画像点群における初期画像の位置点に設定するように構成される位置点設定モジュールを備える。
いくつかの実施例において、上記目標点群データ取得サブユニットは、3次元空間の上記マーク点において目標点群データを取得するように構成される目標点群データ取得モジュールを備える。
いくつかの実施例では、上記補正パラメータ取得ユニットは、初期画像から特徴点集合を取得するように構成される特徴点集合取得サブユニットと、上記目標点群データにおける上記特徴点集合に対応する少なくとも1つの点群特徴データを確定するように構成される点群特徴データ確定サブユニットと、上記少なくとも1つの点群特徴データの間の位置関係及び角度関係に基づいて、上記カメラの補正パラメータを確定するように構成される補正パラメータ確定サブユニットと、を備える。
第3態様において、本開示の実施例は、1つまたは複数のプロセッサと、1つまたは複数のプログラムが格納されているメモリと、を備える電子機器であって、上記1つまたは複数のプログラムが上記1つまたは複数のプロセッサにより実行されると、上記1つまたは複数のプロセッサに、上記第1態様のカメラをキャリブレーションするための方法を実行させる電子機器を提供する。
第4態様において、本開示の実施例は、コンピュータプログラムが格納されているコンピュータ可読媒体であって、該プログラムがプロセッサにより実行されると、上記第1態様のカメラをキャリブレーションするための方法が実行されるコンピュータ可読媒体を提供する。
本開示の実施例が提供するカメラをキャリブレーションするための方法及び装置は、まず画像点群シーケンスを取得し、続いて上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定し、最後に目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定する。本出願は点群データによってカメラに対するキャリブレーションを実現することができる。
本開示の他の特徴、目的および利点は、以下の図面を参照して行われる非限定的な実施例についての詳細な説明から明らかになるであろう。
本開示の一実施例が適用可能な例示的なシステムアーキテクチャを示す図である。 本開示に係るカメラをキャリブレーションするための方法の一実施例を示すフローチャートである。 本開示に係るカメラをキャリブレーションするための方法の一適用シーンを示す概略図である。 本開示に係るカメラをキャリブレーションするための方法の他の実施例を示すフローチャートである。 本開示に係るカメラをキャリブレーションするための装置の一実施例を示す概略構成図である。 本開示の実施例を実現するために好適な電子機器の概略構成図である。
以下、図面と実施例を参照しながら本開示をさらに詳細に説明する。ここに説明する具体的な実施例は関連発明を解釈するためのものであり、本開示を限定するものではないことを理解すべきである。なお、説明の便宜上、図面中に関連発明に関する部分のみを示す。
なお、矛盾しない前提下、本開示における実施例及び実施例における特徴は互いに組み合わせることができる。次に、図面を参照しながら実施例を合わせて本開示を詳しく説明する。
図1は、本開示の実施例に係るカメラをキャリブレーションするための方法またはカメラをキャリブレーションするための装置が適用可能な例示的なシステムアーキテクチャ100を示している。
図1に示すように、システムアーキテクチャ100は、無人運転車両101、102、103、ネットワーク104及びサーバ105を含むことができる。ネットワーク104は、無人運転車両101、102、103とサーバ105との間で通信リンクを提供するための媒体である。ネットワーク104には、有線、無線通信リンクまたは光ファイバケーブル等の各種の接続形態が含まれていてもよい。
無人運転車両101、102、103は、カメラ、レーダ等の複数のデータ収集ユニット及びデータ処理ユニットを有する各種の車両であってもよく、電気自動車、ハイブリッド車、内燃機関自動車等が挙げられるが、これらに限定されるものではない。
サーバ105は、無人運転車両101、102、103から送信された画像点群シーケンスをサポートするサーバなど、様々なサービスを提供するサーバであってもよい。サーバは受信した画像点群シーケンス等のデータに対して分析等の処理を行い、且つ処理結果(例えば、無人運転車両101、102、103におけるカメラの補正パラメータ)を無人運転車両にフィードバックすることができる。
なお、本開示の実施例により提供される、カメラをキャリブレーションするための方法は、一般的にサーバ105により実行され、それに応じて、カメラをキャリブレーションするための装置は一般的にサーバ105に設けられる。
なお、サーバはハードウェアであってもよく、ソフトウェアであってもよい。サーバがハードウェアである場合、複数のサーバで構成される分散型サーバクラスタとして実現することができ、単一のサーバとして実現することもできる。サーバがソフトウェアである場合、複数のソフトウェア又はソフトウェアモジュール(例えば、分散サービスを提供するために用いられる)として実現することができ、単一のソフトウェア又はソフトウェアモジュールとして実現することもでき、ここでは特に限定しない。
なお、図1の無人運転車両、ネットワーク、サーバの数は例示的なものである。実現のニーズに応じて、任意の数の無人運転車両、ネットワーク及びサーバを有することができる。
次に、本開示のカメラをキャリブレーションするための方法の一実施例のフロー200を示す図2を参照されたい。該カメラをキャリブレーションするための方法は、ステップ201〜203を含む。
ステップ201:画像点群シーケンスを取得する。
本実施例では、カメラをキャリブレーションするための方法の実行主体(例えば、図1に示すサーバ105)は、有線接続方式又は無線接続方式によって無人運転車両101、102、103から送信された画像点群シーケンスを受信することができる。ここで、無人運転車両101、102、103に、画像を取得するためのカメラ及び点群データを取得するためのレーダ等のデバイスが取り付けられている。なお、上記無線接続方式には、3G/4G接続、WiFi接続、ブルートゥース(登録商標)接続、WiMAX接続、Zigbee接続、UWB(Ultra Wideband)接続、及びその他の現在既知又は将来に開発される無線接続方式が含まれるが、これらに限定されない。
従来の車両には、通常、複数種類のセンサが搭載されている。センサを車両に搭載した後、センサの各種のパラメータをキャリブレーションするために、一般的に特定の場所に移動する必要があり、車両の車載カメラはその一つである。カメラをキャリブレーションする際に、車両は特定の場所における複数の特定の位置まで走行する必要があり、続いてカメラで画像を撮影し又は二次元コードを走査するなどの方式により車両の現在位置を取得する。車両の現場における実際の位置を踏まえ、カメラが二次元コードを撮影又は走査する時に取得した画像と画像ライブラリにおける基準画像との差を確定することができ、さらにカメラの補正すべきパラメータを確定する。しかしながら、毎年多数の車種や同一車種の異なる車両は、車載のカメラを補正する必要があるが、対応する特定の場所が限られている。
本願の実行主体は、まず画像点群シーケンスを取得することができる。ここで、上記画像点群シーケンスは、少なくとも一組の同時刻に取り込まれた初期画像と点群データを含むことができる。初期画像は、無人運転車両に搭載されたカメラによって取り込まれる。点群データは、無人運転車両に搭載されたレーダによって取り込まれる。すなわち、本願は、無人運転車両上のカメラをキャリブレーションするために用いられる。
本実施例のいくつかの選択可能な実現方式において、上記画像点群シーケンスは、無人運転車両が直線に沿って等速で走行し、無人運転車両に取り付けられた上記カメラにより設定時間おきに画像を取り込み、無人運転車両に取り付けられたレーダにより上記設定時間おきに点群データを取り込むように取得される。
無人運転を実現するために、無人運転車両101、102、103に、いずれも点群データを取得することができるレーダ等のデバイスが取り付けられているのが通常である。点群データは、一般的には十分な精度を有しているため、カメラのパラメータの補正に利用することができる。具体的には、無人運転車両101、102、103は道路において直線的に等速で走行することができる。この過程において、無人運転車両101、102、103上のレーダ及びカメラは設定時間おきに点群データ及び画像を同時にそれぞれ取り込むことができる。すなわち、取り込まれた点群データと画像とはマッチング関係にある。
ステップ202:画像点群シーケンスにおける各組の画像点群に対応する初期画像の目標点群データを確定する。
点群データと画像がマッチング関係を有するため、カメラのパラメータを補正する必要がある。そのため、実行主体は点群データによって初期画像に対応する目標点群データを検索することができる。ここで、目標点群データは初期画像を補正するための点群データであってもよい。
本実施例のいくつかの選択可能な実現形態において、上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定するステップは、次の第1ステップ〜第3ステップを含むことができる。
第1ステップ:上記画像点群シーケンスに基づいて上記無人運転車両の実走行軌跡を確定する。
実行主体は、画像点群シーケンスを取得した後、画像点群シーケンスに含まれる画像点群と従来の点群データとをマッチングして、無人運転車両101、102、103の実走行軌跡を確定することができる。
第2ステップ:上記実走行軌跡における、上記画像点群シーケンスの各組の画像点群における初期画像に対応する位置点を確定し、上記画像点群シーケンスに対応する位置点シーケンスを得る。
点群データと画像はマッチング関係を有し、カメラのパラメータを補正する必要がある。そのため、実走行軌跡において各初期画像を取り込む時に無人運転車両101、102、103が位置する位置、すなわち位置点を確定する必要がある。
第3ステップ:上記位置点シーケンスにおける位置点について、該位置点において上記初期画像に対応する目標点群データを取得する。
位置点が確定された後、実行主体は3次元空間の該位置点に点群データを取得することができ、該点群データは初期画像に対応する目標点群データである。
本実施例のいくつかの選択可能な実現形態において、上記画像点群シーケンスに基づいて上記無人運転車両の実走行軌跡を確定するステップは、次の第1ステップ〜第2ステップを含むことができる。
第1ステップ:上記画像点群シーケンスにおける各組の画像点群に含まれる点群データに基づいて、上記無人運転車両の3次元空間におけるマーク点を確定し、上記点群データシーケンスに対応するマーク点シーケンスを得る。
点群データは、3次元データであり、3次元データの角度情報を含んでもよい。したがって、実行主体は、各組の画像点群に含まれる点群データを3次元空間にマークし、点群データにどのような物体が含まれるかを判定し、さらに無人運転車両の3次元空間におけるマーク点を確定することができる。
第2ステップ:上記マーク点シーケンスにおけるマーク点の順位に基づいてマーク点をフィッティングし、上記無人運転車両の実走行軌跡を得る。
マーク点が得られた後、実行主体はフィッティング等の方式によりマーク点を連結して一本の線を得ることができ、該線は無人運転車両の実走行軌跡に対応する。
本実施例のいくつかの選択可能な実現形態において、上記画像点群シーケンスにおける各組の画像点群に含まれる点群データに基づいて、上記無人運転車両の3次元空間におけるマーク点を確定するステップは、点群データの3次元空間における角度情報を確定し、上記角度情報に基づいて上記無人運転車両の3次元空間におけるマーク点を確定することを含んでもよい。
点群データには角度情報が含まれてもよい。角度情報を合わせて、実行主体は点群データを取得する3次元空間点を確定することができる。該3次元空間点は、無人運転車両の3次元空間におけるマーク点である。
本実施例のいくつかの選択可能な実現形態において、上記実走行軌跡における、上記画像点群シーケンスの各組の画像点群における初期画像に対応する位置点を確定するステップは、上記マーク点を対応する各組の画像点群における初期画像の位置点に設定するステップを含んでもよい。
点群データと画像はマッチング関係を有し、マーク点は点群データに対応する3次元空間における無人運転車両の位置である。これにより、実行主体は、マーク点を、対応する各組の画像点群における初期画像の位置点に直接設定することができる。
本実施例のいくつかの選択可能な実現形態において、上記位置点において上記初期画像に対応する目標点群データを取得するステップは、3次元空間の上記マーク点において目標点群データを取得するステップを含んでもよい。
確定された位置点は実走行環境に対応しており、マーク点は位置点の3次元空間における座標表示と考えることができる。実行主体はマーク点で点群データを取り込むことができ、該点群データは初期画像に対応する目標点群データである。
ステップ203:目標点群データと画像点群シーケンスにおける対応する初期画像とをマッチングして、カメラの補正パラメータを確定する。
目標点群データは、カメラが対応する初期画像が存在する位置で撮影すべき画像に対応する。実行主体は目標点群データと初期画像とをマッチングして、上記カメラの補正パラメータを確定することができる。パラメータを補正することによりカメラをキャリブレーションすることができる。
本実施例のいくつかの選択可能な実現形態において、上記目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定するステップは、次の第1ステップ〜第3ステップを含んでもよい。
第1ステップ:初期画像から特徴点集合を取得する。
カメラの補正すべきパラメータを確定するために、実行主体は初期画像から特徴点を抽出し、特徴点を得ることができる。特徴点は、初期画像において、建物の輪郭や路面の境界線などをマークアップする点であってもよい。初期画像内の異なる画像内容について、特徴点は他の種類の点であってもよく、ここでは説明を省略する。
第2ステップ:上記目標点群データにおける上記特徴点集合に対応する少なくとも1つの点群特徴データを確定する。
目標点群データは初期画像に対応しており、すなわち目標点群データには初期画像の画像内容に対応する点群データが含まれている。実行主体は特徴マッチング等の方式により、上記目標点群データのうち、上記特徴点集合に対応する少なくとも1つの点群特徴データを確定することができる。
第3ステップ:上記少なくとも1つの点群特徴データの間の位置関係及び角度関係に基づいて、上記カメラの補正パラメータを確定する。
目標点群データは、カメラが対応する初期画像の所在位置で撮影すべき画像である。すなわち、目標点群データは、カメラの各パラメータがキャリブレーションされた場合に取得された画像に対応すると考えられる。そのため、実行主体は、少なくとも1つの点群特徴データの間の位置関係及び角度関係に基づいて、上記カメラの補正パラメータを確定することができる。
次に、本実施例に係るカメラをキャリブレーションするための方法の適用シーンの一例を示す概略図である図3を参照されたい。図3の適用シーンにおいて、無人運転車両101は走行中に画像点群シーケンスを取得し、且つ画像点群シーケンスをネットワーク104を介してサーバ105に送信する。ここで、画像点群は道路わきの木とバスケットボールコートの画像と点群データを含む。サーバ105は画像点群シーケンスを受信した後、画像点群シーケンスにおける各組の画像点群に対応する初期画像の目標点群データを確定する。次に、目標点群データと画像点群シーケンスにおける対応する初期画像とをマッチングして、カメラの補正パラメータを確定する。最後に、サーバ105はカメラの補正パラメータを無人運転車両101に送信することができ、無人運転車両101はカメラのパラメータを補正し、カメラに対するキャリブレーションが実現される。
本開示の上記実施例により提供された方法は、まず画像点群シーケンスを取得する。次に、上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定する。最後に、目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定する。本出願は、点群データによってカメラに対するキャリブレーションを実現することができる。
さらに、カメラをキャリブレーションするための方法の他の実施例のフロー400が示される図4を参照されたい。該カメラをキャリブレーションするための方法のフロー400は、次のステップ401〜404を含む。
ステップ401:画像点群シーケンスを取得する。
本実施例において、カメラをキャリブレーションするための方法の実行主体(例えば、図1に示すサーバ105)は、有線接続方式又は無線接続方式によって無人運転車両101、102、103から送信された画像点群シーケンスを受信することができる。
ステップ401の内容はステップ201の内容と同じであり、ここでは説明を省略する。
ステップ402:画像点群シーケンスにおける各組の画像点群に対応する初期画像の目標点群データを確定する。
ステップ402の内容はステップ202の内容と同じであり、ここでは説明を省略する。
ステップ403:目標点群データと画像点群シーケンスにおける対応する初期画像とをマッチングして、カメラの補正パラメータを確定する。
ステップ403の内容はステップ203の内容と同じであり、ここでは説明を省略する。
ステップ404:補正パラメータを車両に送信する。
補正パラメータが得られると、実行主体は、補正パラメータを車両に送信することができる。車両は補正パラメータを受信した後、カメラのプリセットパラメータを補正することができ、それによりカメラはレーダで取り込まれた点群データとマッチングする画像を取得することができる。
さらに図5を参照し、上記各図に示す方法に対する実装として、本開示はカメラをキャリブレーションするための装置の一実施例を提供し、該装置の実施例は図2に示す方法の実施例に対応しており、該装置は具体的に様々な電子機器に適用することができる。
図5に示すように、本実施例のカメラをキャリブレーションするための装置500は、画像点群シーケンス取得ユニット501、目標点群データ確定ユニット502及び補正パラメータ取得ユニット503を備えることができる。ここで、画像点群シーケンス取得ユニット501は、画像点群シーケンスを取得するように構成され、上記画像点群シーケンスは少なくとも一組の同時刻に取り込まれた初期画像と点群データを含み、初期画像は無人運転車両に取り付けられたカメラによって取り込まれ、点群データは無人運転車両に取り付けられたレーダによって取り込まれる。目標点群データ確定ユニット502は、上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定するように構成される。補正パラメータ取得ユニット503は、目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定するように構成される。
本実施例のいくつかの選択可能な実現形態において、上記画像点群シーケンスは、無人運転車両が直線に沿って等速で走行し、無人運転車両に取り付けられた上記カメラにより設定時間おきに画像を取り込み、無人運転車両に取り付けられたレーダにより上記設定時間おきに点群データを取り込むように取得されてもよい。
本実施例のいくつかの選択可能な実現形態において、上記目標点群データ確定ユニット502は、実走行軌跡確定サブユニット(図示せず)、位置点確定サブユニット(図示せず)及び目標点群データ取得サブユニット(図示せず)を備えることができる。そのうち、実走行軌跡確定サブユニットは、上記画像点群シーケンスに基づいて上記無人運転車両の実走行軌跡を確定するように構成される。位置点確定サブユニットは、上記実走行軌跡における、上記画像点群シーケンスの各組の画像点群における初期画像に対応する位置点を確定し、上記画像点群シーケンスに対応する位置点シーケンスを得るように構成される。目標点群データ取得サブユニットは、上記位置点シーケンスにおける位置点について、該位置点において上記初期画像に対応する目標点群データを取得するように構成される。
本実施例のいくつかの選択可能な実現形態において、上記実走行軌跡確定サブユニットは、マーク点確定モジュール(図示せず)及び実走行軌跡フィッティングモジュール(図示せず)を備えることができる。そのうち、マーク点確定モジュールは、上記画像点群シーケンスにおける各組の画像点群に含まれる点群データに基づいて、上記無人運転車両の3次元空間におけるマーク点を確定し、上記点群データシーケンスに対応するマーク点シーケンスを得るように構成される。実走行軌跡フィッティングモジュールは、上記マーク点シーケンスにおけるマーク点の順位に基づいてマーク点をフィッティングし、上記無人運転車両の実走行軌跡を得るように構成される。
本実施例のいくつかの選択可能な実現形態において、上記マーク点確定モジュールは、点群データの3次元空間における角度情報を確定し、上記角度情報に基づいて上記無人運転車両の3次元空間におけるマーク点を確定するように構成されるマーク点確定サブモジュール(図示せず)を備えることができる。
本実施例のいくつかの任意の実現形態において、上記位置点確定サブユニットは、上記マーク点を対応する各組の画像点群における初期画像の位置点に設定するように構成される位置点設定モジュール(図示せず)を備えることができる。
本実施例のいくつかの選択可能な実現形態において、上記目標点群データ取得サブユニットは、3次元空間の上記マーク点において目標点群データを取得するように構成される目標点群データ取得モジュール(図示せず)を備えることができる。
本実施例のいくつかの選択可能な実現形態において、上記補正パラメータ取得ユニット503は、特徴点集合取得サブユニット(図示せず)、点群特徴データ確定サブユニット(図示せず)及び補正パラメータ確定サブユニット(図示せず)を備えることができる。ここで、特徴点集合取得サブユニットは、初期画像から特徴点集合を取得するように構成される。点群特徴データ確定サブユニットは、上記目標点群データにおける上記特徴点集合に対応する少なくとも1つの点群特徴データを確定するように構成される。補正パラメータ確定サブユニットは、上記少なくとも1つの点群特徴データの間の位置関係及び角度関係に基づいて、上記カメラの補正パラメータを確定するように構成される。
本実施例は、1つまたは複数のプロセッサと、1つまたは複数のプログラムが格納されているメモリと、を備える電子機器であって、上記1つまたは複数のプログラムが上記1つまたは複数のプロセッサにより実行されると、上記1つまたは複数のプロセッサに、上記のカメラをキャリブレーションするための方法を実行させる電子機器をさらに提供する。
本実施例は、コンピュータプログラムが格納されているコンピュータ可読媒体であって、該プログラムがプロセッサにより実行されると、上記のカメラをキャリブレーションするための方法が実行されるコンピュータ可読媒体をさらに提供する。
次に、本開示の実施例に係る電子機器(例えば、図1のサーバ105)を実現するために好適なコンピュータシステム600の概略構成図を示す図6を参照されたい。なお、図6に示す電子機器はあくまでも一例であり、本開示の実施例の機能および使用範囲には如何なる制限も与えない。
図6に示すように、電子機器600は、読み取り専用メモリ(ROM)602に格納されたプログラム、または記憶装置608からランダムアクセスメモリ(RAM)603にロードされたプログラムに従って様々な適切な動作および処理を実行する処理装置(例えば、中央処理装置、グラフィックプロセッサ等)601を備えることができる。RAM603にはまた、電子機器600の動作に必要な各種のプログラムやデータが格納されている。処理装置601、ROM602、およびRAM603は、バス604を介して相互に接続されている。バス604にはまた、入力/出力(I/O)インタフェース605が接続されている。
通常、I/Oインタフェース605には、例えば、タッチパネル、タッチパッド、キーボード、マウス、カメラ、マイクロホン、加速度計、ジャイロスコープなどを含む入力装置606、液晶ディスプレイ(LCD)、スピーカ、バイブレータなどを含む出力装置607、磁気テープ、ハードディスクなどを含む記憶装置608並びに通信装置609が接続されている。通信装置609は、電子機器600と他の機器との間で無線または有線による通信を行い、データの授受を可能にする。なお、図6では、様々な装置を有する電子機器600を示しているが、必ずしも全ての装置を実装または備える必要はない。また、より多くの装置を実装してもよいし、より少ない装置を実装してもよい。図6に示す各ブロックは1つの装置を代表してもよいし、必要に応じて複数の装置を代表してもよい。
特に、本開示の実施例によれば、上記のフローチャートを参照しながら記載されたプロセスは、コンピュータのソフトウェアプログラムとして実現されてもよい。例えば、本開示の実施例は、コンピュータ可読媒体に具現化されるコンピュータプログラムを含むコンピュータプログラム製品を備え、該コンピュータプログラムは、フローチャートで示される方法を実行するためのプログラムコードを含む。このような実施例では、該コンピュータプログラムは、通信装置609を介してネットワークからダウンロードしてインストールすることが可能であり、または記憶装置608またはROM602からインストールすることもできる。該コンピュータプログラムが処理デバイス601によって実行されると、本開示の実施例の方法で定義された上記の機能が実行される。
なお、本開示の実施例に記載されたコンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体、またはこれらの任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、または半導体システム、装置もしくはデバイス、またはこれらの任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例としては、1本または複数の導線による電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROMもしくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読取り専用メモリ(CD−ROM)、光メモリ、磁気メモリ、またはこれらの任意の適切な組み合わせが挙げられるが、これらに限定されない。本開示の実施例において、コンピュータ可読記憶媒体は、命令実行システム、装置もしくはデバイスによって使用される、またはそれらに組み込まれて使用されるプログラムを包含または格納する任意の有形の媒体であってもよい。本開示の実施例において、コンピュータ可読信号媒体は、ベースバンド内の、または搬送波の一部として伝搬されるデータ信号を含むことができ、その中にコンピュータ可読プログラムコードが担持されている。かかる伝搬されたデータ信号は、様々な形態をとることができ、電磁信号、光信号、またはこれらの任意の適切な組み合わせが挙げられるが、これらに限定されない。コンピュータ可読信号媒体は、更にコンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよい。当該コンピュータ可読媒体は、命令実行システム、装置もしくはデバイスによって使用されるか、またはそれらに組み込まれて使用されるプログラムを送信、伝搬または伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは、任意の適切な媒体で伝送することができ、当該任意の適切な媒体としては、電線、光ケーブル、RF(無線周波数)など、またはこれらの任意の適切な組み合わせが挙げられるが、これらに限定されない。
上記コンピュータ可読媒体は、上記電子機器に含まれるものであってもよく、該電子機器に実装されずに別体として存在するものであってもよい。上記コンピュータ可読媒体に1つ又は複数のプログラムが搭載され、上記1つ又は複数のプログラムが該電子機器により実行されると、該電子機器は、画像点群シーケンスを取得するステップであって、上記画像点群シーケンスは少なくとも一組の同時刻に取り込まれた初期画像と点群データを含み、初期画像は無人運転車両に取り付けられたカメラにより取り込まれ、点群データは無人運転車両に取り付けられたレーダにより取り込まれる、ステップと、上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定するステップと、目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定するステップと、を実行する。
本開示の実施例の動作を実行するためのコンピュータプログラムコードは、1種以上のプログラミング言語、又はそれらの組み合わせで作成することができ、上記プログラミング言語は、Java(登録商標)、Smalltalk、C++などのオブジェクト指向プログラミング言語と、「C」言語又は同様のプログラミング言語などの従来の手続き型プログラミング言語とを含む。プログラムコードは、完全にユーザのコンピュータで実行することも、部分的にユーザのコンピュータで実行することも、単独のソフトウェアパッケージとして実行することも、部分的にユーザのコンピュータで実行しながら部分的にリモートコンピュータで実行することも、または完全にリモートコンピュータもしくはサーバで実行することも可能である。リモートコンピュータの場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを介してユーザのコンピュータに接続することができ、または(例えば、インターネットサービスプロバイダによるインターネットサービスを介して)外部のコンピュータに接続することができる。
図面のうちのフローチャートおよびブロック図は、本開示の様々な実施例に係るシステム、方法およびコンピュータプログラム製品によって実現できるアーキテクチャ、機能および動作の表示例である。これについて、フローチャートまたはブロック図における各ブロックは、モジュール、プログラムセグメント、またはコードの一部を表すことができる。当該モジュール、プログラムセグメント、またはコードの一部には、所定のロジック機能を実現するための1つまたは複数の実行可能命令が含まれている。さらに注意すべきなのは、一部の代替となる実施態様においては、ブロックに示されている機能は図面に示されているものとは異なる順序で実行することも可能である。例えば、連続して示された2つのブロックは、実際には係る機能に応じてほぼ並行して実行してもよく、時には逆の順序で実行してもよい。さらに注意すべきなのは、ブロック図および/またはフローチャートにおけるすべてのブロック、ならびにブロック図および/またはフローチャートにおけるブロックの組み合わせは、所定の機能または操作を実行する専用のハードウェアベースのシステムで実現することもできれば、専用のハードウェアとコンピュータ命令との組み合わせで実現することもできる。
本開示の実施例に記載されたユニットは、ソフトウェアで実現されてもよく、ハードウェアで実現されてもよい。記載されたユニットは、プロセッサに設けられてもよく、例えば、「画像点群シーケンス取得ユニット、目標点群データ確定ユニット及び補正パラメータ取得ユニットを備えるプロセッサ」というように記載されてもよい。ここで、これらのユニットの名称は、ある場合において当該ユニット自体を限定するものではなく、例えば、補正パラメータ取得ユニットは、さらに「カメラの補正パラメータを取得するためのユニット」と記述され得る。
以上の記載は、本開示の好ましい実施例、および適用される技術的原理に関する説明に過ぎない。当業者であれば、本開示に係る発明の範囲が、上記の技術的特徴の特定の組み合わせからなる技術案に限定されるものではなく、上記の本開示の趣旨を逸脱しない範囲で、上記の技術的特徴またはそれらの同等の特徴の任意の組み合わせからなる他の技術案も含まれるべきであることを理解すべきである。例えば、上記の特徴と、本開示に開示された類似の機能を持っている技術的特徴(これらに限定されていない)とを互いに置き換えてなる技術案が挙げられる。

Claims (18)

  1. 画像点群シーケンスを取得するステップであって、上記画像点群シーケンスは少なくとも一組の同時刻に取り込まれた初期画像と点群データを含み、初期画像は無人運転車両に取り付けられたカメラにより取り込まれ、点群データは無人運転車両に取り付けられたレーダにより取り込まれる、ステップと、
    上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定するステップと、
    目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定するステップと、
    を含む、カメラをキャリブレーションするための方法。
  2. 上記画像点群シーケンスは、
    無人運転車両が直線に沿って等速で走行し、無人運転車両に取り付けられた上記カメラにより設定時間おきに画像を取り込み、無人運転車両に取り付けられたレーダにより上記設定時間おきに点群データを取り込むように取得される、請求項1に記載の方法。
  3. 上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定するステップは、
    上記画像点群シーケンスに基づいて上記無人運転車両の実走行軌跡を確定するステップと、
    上記実走行軌跡における、上記画像点群シーケンスの各組の画像点群における初期画像に対応する位置点を確定し、上記画像点群シーケンスに対応する位置点シーケンスを得るステップと、
    上記位置点シーケンスにおける位置点について、該位置点において上記初期画像に対応する目標点群データを取得するステップと、を含む、請求項1に記載の方法。
  4. 上記画像点群シーケンスに基づいて上記無人運転車両の実走行軌跡を確定するステップは、
    上記画像点群シーケンスにおける各組の画像点群に含まれる点群データに基づいて、上記無人運転車両の3次元空間におけるマーク点を確定し、上記点群データシーケンスに対応するマーク点シーケンスを得るステップと、
    上記マーク点シーケンスにおけるマーク点の順位に基づいてマーク点をフィッティングし、上記無人運転車両の実走行軌跡を得るステップと、を含む、請求項3に記載の方法。
  5. 上記画像点群シーケンスにおける各組の画像点群に含まれる点群データに基づいて、上記無人運転車両の3次元空間におけるマーク点を確定するステップは、
    点群データの3次元空間における角度情報を確定し、上記角度情報に基づいて上記無人運転車両の3次元空間におけるマーク点を確定するステップを含む、請求項4に記載の方法。
  6. 上記実走行軌跡における、上記画像点群シーケンスの各組の画像点群における初期画像に対応する位置点を確定するステップは、
    上記マーク点を対応する各組の画像点群における初期画像の位置点に設定するステップを含む、請求項4に記載の方法。
  7. 上記位置点において上記初期画像に対応する目標点群データを取得するステップは、
    3次元空間の上記マーク点において目標点群データを取得するステップを含む、請求項6に記載の方法。
  8. 上記目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定するステップは、
    初期画像から特徴点集合を取得するステップと、
    上記目標点群データにおける上記特徴点集合に対応する少なくとも1つの点群特徴データを確定するステップと、
    上記少なくとも1つの点群特徴データの間の位置関係及び角度関係に基づいて、上記カメラの補正パラメータを確定するステップと、を含む、請求項1〜7のいずれか1項に記載の方法。
  9. 画像点群シーケンスを取得するように構成される画像点群シーケンス取得ユニットであって、上記画像点群シーケンスは少なくとも一組の同時刻に取り込まれた初期画像と点群データを含み、初期画像は無人運転車両に取り付けられたカメラにより取り込まれ、点群データは無人運転車両に取り付けられたレーダにより取り込まれる、画像点群シーケンス取得ユニットと、
    上記画像点群シーケンスにおける各組の画像点群に対応する上記初期画像の目標点群データを確定するように構成される目標点群データ確定ユニットと、
    目標点群データと上記画像点群シーケンスにおける対応する初期画像とをマッチングして、上記カメラの補正パラメータを確定するように構成される補正パラメータ取得ユニットと、を備える、カメラをキャリブレーションするための装置。
  10. 上記画像点群シーケンスは、
    無人運転車両が直線に沿って等速で走行し、無人運転車両に取り付けられた上記カメラにより設定時間おきに画像を取り込み、無人運転車両に取り付けられたレーダにより上記設定時間おきに点群データを取り込むように取得される、請求項9に記載の装置。
  11. 上記目標点群データ確定ユニットは、
    上記画像点群シーケンスに基づいて上記無人運転車両の実走行軌跡を確定するように構成される実走行軌跡確定サブユニットと、
    上記実走行軌跡における、上記画像点群シーケンスの各組の画像点群における初期画像に対応する位置点を確定し、上記画像点群シーケンスに対応する位置点シーケンスを得るように構成される位置点確定サブユニットと、
    上記位置点シーケンスにおける位置点について、該位置点において上記初期画像に対応する目標点群データを取得するように構成される目標点群データ取得サブユニットと、を備える、請求項9に記載の装置。
  12. 上記実走行軌跡確定サブユニットは、
    上記画像点群シーケンスにおける各組の画像点群に含まれる点群データに基づいて、上記無人運転車両の3次元空間におけるマーク点を確定し、上記点群データシーケンスに対応するマーク点シーケンスを得るように構成されるマーク点確定モジュールと、
    上記マーク点シーケンスにおけるマーク点の順位に基づいてマーク点をフィッティングし、上記無人運転車両の実走行軌跡を得るように構成される実走行軌跡フィッティングモジュールと、を備える、請求項11に記載の装置。
  13. 上記マーク点確定モジュールは、
    点群データの3次元空間における角度情報を確定し、上記角度情報に基づいて上記無人運転車両の3次元空間におけるマーク点を確定するように構成されるマーク点確定サブモジュールを備える、請求項12に記載の装置。
  14. 上記位置点確定サブユニットは、
    上記マーク点を対応する各組の画像点群における初期画像の位置点に設定するように構成される位置点設定モジュールを備える、請求項12に記載の装置。
  15. 上記目標点群データ取得サブユニットは、
    3次元空間の上記マーク点において目標点群データを取得するように構成される目標点群データ取得モジュールを備える、請求項14に記載の装置。
  16. 上記補正パラメータ取得ユニットは、
    初期画像から特徴点集合を取得するように構成される特徴点集合取得サブユニットと、
    上記目標点群データにおける上記特徴点集合に対応する少なくとも1つの点群特徴データを確定するように構成される点群特徴データ確定サブユニットと、
    上記少なくとも1つの点群特徴データの間の位置関係及び角度関係に基づいて、上記カメラの補正パラメータを確定するように構成される補正パラメータ確定サブユニットと、を備える、請求項9〜15のいずれか1項に記載の装置。
  17. 1つまたは複数のプロセッサと、
    1つまたは複数のプログラムが格納されているメモリと、
    を備える電子機器であって、
    上記1つまたは複数のプログラムが上記1つまたは複数のプロセッサにより実行されると、上記1つまたは複数のプロセッサに、請求項1〜8のいずれか1項に記載の方法を実行させる電子機器。
  18. コンピュータプログラムが格納されているコンピュータ可読媒体であって、
    該プログラムがプロセッサにより実行されると、請求項1〜8のいずれか1項に記載の方法が実行される、コンピュータ可読媒体。

JP2020036469A 2019-09-20 2020-03-04 カメラをキャリブレーションするための方法及び装置 Active JP6967098B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910890571.X 2019-09-20
CN201910890571.XA CN110619666B (zh) 2019-09-20 2019-09-20 用于标定相机的方法及装置

Publications (2)

Publication Number Publication Date
JP2021051720A true JP2021051720A (ja) 2021-04-01
JP6967098B2 JP6967098B2 (ja) 2021-11-17

Family

ID=68923678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020036469A Active JP6967098B2 (ja) 2019-09-20 2020-03-04 カメラをキャリブレーションするための方法及び装置

Country Status (4)

Country Link
US (1) US11694359B2 (ja)
EP (1) EP3796262B1 (ja)
JP (1) JP6967098B2 (ja)
CN (1) CN110619666B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11474193B2 (en) 2020-12-09 2022-10-18 Here Global B.V. Camera calibration for localization
CN113516687A (zh) * 2021-07-09 2021-10-19 东软睿驰汽车技术(沈阳)有限公司 目标跟踪方法、装置、设备及存储介质
CN113643321A (zh) * 2021-07-30 2021-11-12 北京三快在线科技有限公司 一种无人驾驶设备的传感器数据采集方法及装置
CN114415489B (zh) * 2021-12-02 2023-09-22 北京罗克维尔斯科技有限公司 一种车载传感器时间同步方法、装置、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057108A (ja) * 2014-09-08 2016-04-21 株式会社トプコン 演算装置、演算システム、演算方法およびプログラム
JP2017062848A (ja) * 2016-12-13 2017-03-30 三菱電機株式会社 キャリブレーション方法、プログラムおよびコンピュータ
US10298910B1 (en) * 2018-06-29 2019-05-21 Zoox, Inc. Infrastructure free intrinsic calibration

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6946978B2 (en) * 2002-04-25 2005-09-20 Donnelly Corporation Imaging system for vehicle
ATE552478T1 (de) * 2004-06-03 2012-04-15 Making Virtual Solid L L C Navigationsanzeigeverfahren und vorrichtung für unterwegs unter verwendung eines head-up-displays
AU2007361324A1 (en) * 2007-11-07 2009-05-14 Tele Atlas B.V. Method of and arrangement for mapping range sensor data on image sensor data
DE102012202916A1 (de) * 2012-02-27 2013-08-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US9221396B1 (en) * 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
EP2728376A1 (en) * 2012-11-05 2014-05-07 The Chancellor, Masters and Scholars of the University of Oxford Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus
US9215382B1 (en) * 2013-07-25 2015-12-15 The United States Of America As Represented By The Secretary Of The Navy Apparatus and method for data fusion and visualization of video and LADAR data
US10126141B2 (en) * 2016-05-02 2018-11-13 Google Llc Systems and methods for using real-time imagery in navigation
US10416682B2 (en) * 2016-07-29 2019-09-17 Faraday & Future Inc. Semi-automated driving using pre-recorded route
US11119486B2 (en) * 2016-09-13 2021-09-14 Ford Global Technologies, Llc Methods and apparatus to monitor and control mobility vehicles
WO2018155159A1 (ja) * 2017-02-24 2018-08-30 パナソニックIpマネジメント株式会社 遠隔映像出力システム、及び遠隔映像出力装置
US20200026297A1 (en) * 2017-03-28 2020-01-23 Pioneer Corporation Output device, control method, program and storage medium
DE102017109039A1 (de) * 2017-04-27 2018-10-31 Sick Ag Verfahren zur Kalibrierung einer Kamera und eines Laserscanners
EP3401182B1 (en) * 2017-05-09 2020-09-09 Veoneer Sweden AB Apparatus for lane detection
US10866101B2 (en) * 2017-06-13 2020-12-15 Tusimple, Inc. Sensor calibration and time system for ground truth static scene sparse flow generation
EP3438776B1 (en) * 2017-08-04 2022-09-07 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle
NL2019756B1 (nl) * 2017-10-18 2019-04-25 Johannes Smit Stephan Systeem voor het aansturen van een op basis van stuur- en versnellingswaarden bestuurbaar autonoom rijdend voertuig, autonoom rijdend voertuig voorzien van een dergelijk systeem en werkwijze voor het trainen van een dergelijk systeem.
US20190120934A1 (en) * 2017-10-19 2019-04-25 GM Global Technology Operations LLC Three-dimensional alignment of radar and camera sensors
WO2019079211A1 (en) * 2017-10-19 2019-04-25 DeepMap Inc. LIDAR-CAMERA CALIBRATION TO GENERATE HIGH DEFINITION MAPS
US11062461B2 (en) * 2017-11-16 2021-07-13 Zoox, Inc. Pose determination from contact points
WO2019131003A1 (ja) * 2017-12-25 2019-07-04 日立オートモティブシステムズ株式会社 車両制御装置および電子制御システム
WO2019202824A1 (ja) * 2018-04-18 2019-10-24 日立オートモティブシステムズ株式会社 電子制御装置
JP7194755B2 (ja) * 2018-05-31 2022-12-22 ニッサン ノース アメリカ,インク 軌道計画
CN110609274B (zh) * 2018-06-15 2022-07-01 杭州海康威视数字技术股份有限公司 一种测距方法、装置及系统
US10754025B2 (en) * 2018-06-20 2020-08-25 Rapsodo Pte. Ltd. Radar and camera-based data fusion
US11422259B2 (en) * 2018-06-28 2022-08-23 Zoox, Inc. Multi-resolution maps for localization
US10733761B2 (en) * 2018-06-29 2020-08-04 Zoox, Inc. Sensor calibration
US11067693B2 (en) * 2018-07-12 2021-07-20 Toyota Research Institute, Inc. System and method for calibrating a LIDAR and a camera together using semantic segmentation
US11277956B2 (en) * 2018-07-26 2022-03-22 Bear Flag Robotics, Inc. Vehicle controllers for agricultural and industrial applications
US11105905B2 (en) * 2018-11-30 2021-08-31 Lyft, Inc. LiDAR and camera rotational position calibration using multiple point cloud comparisons
CN111314597B (zh) * 2018-12-11 2021-07-23 北京小米移动软件有限公司 终端、对焦方法及装置
US10408939B1 (en) * 2019-01-31 2019-09-10 StradVision, Inc. Learning method and learning device for integrating image acquired by camera and point-cloud map acquired by radar or LiDAR corresponding to image at each of convolution stages in neural network and testing method and testing device using the same
CN109949371A (zh) * 2019-03-18 2019-06-28 北京智行者科技有限公司 一种用于激光雷达和相机数据的标定方法
US11256268B1 (en) * 2019-03-29 2022-02-22 Zoox, Inc. Techniques for authorizing vehicle control systems
US11049339B2 (en) * 2019-03-29 2021-06-29 Wipro Limited Method and system for validating odometer performance in an autonomous vehicle in real-time
US10928508B2 (en) * 2019-04-12 2021-02-23 Ford Global Technologies, Llc Camera and radar fusion
US11112490B2 (en) * 2019-04-15 2021-09-07 Argo AI, LLC Apparatus for joint calibration of radar and camera systems for autonomous vehicle applications
US10984543B1 (en) * 2019-05-09 2021-04-20 Zoox, Inc. Image-based depth data and relative depth data
CN109920011B (zh) * 2019-05-16 2020-01-10 长沙智能驾驶研究院有限公司 激光雷达与双目摄像头的外参标定方法、装置及设备
US11557061B2 (en) * 2019-06-28 2023-01-17 GM Cruise Holdings LLC. Extrinsic calibration of multiple vehicle sensors using combined target detectable by multiple vehicle sensors
US11778934B2 (en) * 2019-07-02 2023-10-10 Bear Flag Robotics, Inc. Agricultural lane following
US20210003683A1 (en) * 2019-07-03 2021-01-07 DeepMap Inc. Interactive sensor calibration for autonomous vehicles
US10841483B1 (en) * 2019-07-11 2020-11-17 Denso International America, Inc. System and method for calibrating at least one camera and a light detection and ranging sensor
US11146783B2 (en) * 2019-08-16 2021-10-12 GM Cruise Holdings, LLC Partial calibration target detection for improved vehicle sensor calibration

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057108A (ja) * 2014-09-08 2016-04-21 株式会社トプコン 演算装置、演算システム、演算方法およびプログラム
JP2017062848A (ja) * 2016-12-13 2017-03-30 三菱電機株式会社 キャリブレーション方法、プログラムおよびコンピュータ
US10298910B1 (en) * 2018-06-29 2019-05-21 Zoox, Inc. Infrastructure free intrinsic calibration

Also Published As

Publication number Publication date
US11694359B2 (en) 2023-07-04
US20210090296A1 (en) 2021-03-25
EP3796262A1 (en) 2021-03-24
JP6967098B2 (ja) 2021-11-17
EP3796262B1 (en) 2022-11-09
CN110619666A (zh) 2019-12-27
CN110619666B (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
JP6967098B2 (ja) カメラをキャリブレーションするための方法及び装置
WO2020224375A1 (zh) 定位方法、装置、设备和计算机可读存储介质
CN109285188B (zh) 用于生成目标物体的位置信息的方法和装置
US20180224284A1 (en) Distributed autonomous mapping
CN109613543B (zh) 激光点云数据的修正方法、装置、存储介质和电子设备
CN110197615B (zh) 用于生成地图的方法及装置
TW201118345A (en) Methods and apparatuses for correcting location measurements for a navigable feature
US11410429B2 (en) Image collection system, image collection method, image collection device, recording medium, and vehicle communication device
GB2601689A (en) Determining the state of infrastructure in a region of interest
CN112146682B (zh) 智能汽车的传感器标定方法、装置、电子设备及介质
WO2022142185A1 (zh) 位姿数据的确定方法、装置、电子设备及车辆
US20210073539A1 (en) Port area monitoring method and system and central control system
CN112556685A (zh) 导航路线的显示方法、装置和存储介质及电子设备
JP2015194397A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
CN110794844A (zh) 自动驾驶方法、装置、电子设备及可读存储介质
CN109541570B (zh) 毫米波扫描设备标定的方法及设备
CN111353453A (zh) 用于车辆的障碍物检测方法和装置
CN116182878A (zh) 道路曲面信息生成方法、装置、设备和计算机可读介质
CN114894205A (zh) 三维车道线信息生成方法、装置、设备和计算机可读介质
US20210006725A1 (en) Image capturing system, method, and analysis of objects of interest
CN112447058A (zh) 泊车方法、装置、计算机设备及存储介质
CN116758498B (zh) 障碍物信息生成方法、装置、电子设备和计算机可读介质
WO2020198167A1 (en) Map data co-registration and localization system and method
CN111340880A (zh) 用于生成预测模型的方法和装置
US20160012290A1 (en) Photo-Optic Comparative Geolocation System

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211022

R150 Certificate of patent or registration of utility model

Ref document number: 6967098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211029

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350