JP2020098151A - センサ校正方法およびセンサ校正装置 - Google Patents

センサ校正方法およびセンサ校正装置 Download PDF

Info

Publication number
JP2020098151A
JP2020098151A JP2018236445A JP2018236445A JP2020098151A JP 2020098151 A JP2020098151 A JP 2020098151A JP 2018236445 A JP2018236445 A JP 2018236445A JP 2018236445 A JP2018236445 A JP 2018236445A JP 2020098151 A JP2020098151 A JP 2020098151A
Authority
JP
Japan
Prior art keywords
vehicle
sensor
calibration
projection
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018236445A
Other languages
English (en)
Other versions
JP2020098151A5 (ja
JP7056540B2 (ja
Inventor
文城 林
Wencheng Lin
文城 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018236445A priority Critical patent/JP7056540B2/ja
Priority to CN201911294585.1A priority patent/CN111337906B/zh
Priority to US16/715,150 priority patent/US10935643B2/en
Publication of JP2020098151A publication Critical patent/JP2020098151A/ja
Publication of JP2020098151A5 publication Critical patent/JP2020098151A5/ja
Application granted granted Critical
Publication of JP7056540B2 publication Critical patent/JP7056540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Manufacturing & Machinery (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】実体物の校正マーカを用いることなくセンサの校正が可能なセンサ校正方法等を提供する。【解決手段】センサ校正方法は、車載ECU100によって実施され、車両Aに搭載されたカメラ10についての校正を行う。光センサ校正方法は、少なくとも1つのプロセッサ61上において、車両に搭載されて光を投影する照明装置20から、校正マーカを表す光像をカメラ10の撮像範囲に投影させるステップを含む。さらに光センサ校正方法は、カメラ10によって撮像されたマーカ画像データを取得し、マーカ画像データに基づいてカメラ10の校正値を算出する、というステップを含む。【選択図】図3

Description

この明細書における開示は、車両に搭載されたセンサについての校正を行うセンサ校正方法およびセンサ校正装置に関する。
特許文献1には、車両に搭載されたカメラまたはライダの校正を行う校正システムが開示されている。この校正システムでは、ターンテーブルによって回転する車両の周囲に、カメラまたはライダによって検出される校正マーカが設置されている。校正システムは、校正マーカの検出情報に基づき、カメラまたはライダの校正値の算出を行う。
米国特許出願公開第2017/0343654号明細書
特許文献1に開示されている校正システムでは、校正マーカの設置された設備が必要となる。しかし、校正マーカを実体物として設置する場合、設置スペースや設置作業等が必要となるため、カメラまたはライダ等の校正を行うための環境を整備するコストが増加し得た。
開示される目的は、実体物の校正マーカを用いることなくセンサの校正が可能なセンサ校正方法およびセンサ校正装置を提供することである。
この明細書に開示された複数の態様は、それぞれの目的を達成するために、互いに異なる技術的手段を採用する。また、特許請求の範囲およびこの項に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示す一例であって、技術的範囲を限定するものではない。
開示されたセンサ校正方法のひとつは、コンピュータ(100)によって実施され、車両(A)に搭載されたセンサ(10;12)についての校正を行うセンサ校正方法であって、少なくとも1つのプロセッサ(61)上において、車両に搭載されて光を投影する投影装置(20;12)を用いて、校正マーカを表す光像をセンサの検出範囲に投影し、センサによって検出された光像情報を取得し、光像情報に基づいてセンサの校正値を算出する、というステップを含む。
開示されたセンサ校正装置のひとつは、車両(A)に搭載されたセンサ(10;12)についての校正を行うセンサ校正装置であって、車両に搭載されて光を投影する投影装置(20;12)から、校正マーカを表す光像をセンサの検出範囲に投影させる投影指示部(51)と、センサによって検出された光像情報を取得する光像情報取得部(53)と、光像情報に基づいてセンサの校正値を算出する算出部(54)と、を備える。
これらの開示によれば、センサの校正値を算出するための校正マーカが、投影装置から光像として投影される。このため、実体物としての校正マーカが設置された設備が不要となる。以上により、実体物の校正マーカを用いることなくセンサの校正が可能なセンサ校正方法およびセンサ校正装置を提供することができる。
第1実施形態のセンサ校正方法に関連する構成を示す概要図である。 図1の構成を上から見た図である。 車載ECUのブロック図である。 校正マーカの投影態様を示す図である。 車載ECUが実行する処理の一例を示すフローチャートである。 図5における校正処理の詳細を示すフローチャートである。 第2実施形態の車載ECUのブロック図である。 他の実施形態における校正マーカの投影態様を示す図である。
(第1実施形態)
第1実施形態のセンサ校正装置について、図1〜図6を参照しながら説明する。第1実施形態において、センサ校正装置の機能は、車載ECU(Electronic Control Unit)100に実装されている。車載ECU100は、車両Aに搭載された複数の電子制御ユニットのうちの1つであり、車両Aの自動運転を可能にする車載コンピュータである。車載ECU100の搭載された車両Aは、人、荷物の自動輸送や、カーシェアリング、ライドシェアリング等のモビリティサービスを提供する無人運転車両である。車載ECU100は、車載ネットワーク45のバス、および複数の車載センサ等と直接的または間接的に電気接続されている。
車載ネットワーク45の通信バスには、多数の車載機器が直接的または間接的に電気接続されている。車載ネットワーク45は、通信バスに出力された種々の車両情報を、車載ECU100に提供可能である。車載ネットワーク45は、後述する校正処理に必要な情報として、例えば車両Aの走行速度を示す車速情報、車両Aの現在地を示す自車位置情報等を車載ECU100に提供する。
車載センサは、車両Aに搭載されて、自動運転または高度運転支援に必要な種々の情報を取得する検出構成である。車載センサには、カメラ10、ライダ12等の光センサ、ミリ波レーダ13、ソナー14が含まれている。各車載センサは、相互に異なる位置に、相互に異なる姿勢で設置されている。
カメラ10、ライダ12、ミリ波レーダ13、およびソナー14は、車両Aの周囲環境を認識する自律センサである。これらの自律センサは、歩行者および他車両等の移動物体、並びに交通信号、道路標識および区画線や横断歩道のような道路標示物等の静止物体を検出する。各自律センサは、移動物体および静止物体の検出結果を含んだ計測情報を、車載ECU100に逐次出力する。尚、各自律センサは、それぞれ複数であってもよい。また、一部の自律センサは、省略されていてもよい。
カメラ10は、可視光領域の波長において車両Aの周囲を撮影し、画像を生成する撮像装置である。カメラ10は、CMOSセンサ等の撮像素子と、撮像素子の検出情報を画像処理する制御回路とを備える。カメラ10は、制御回路にて検出情報から画像をデータとして生成し、車載ECU100に逐次出力する。または、カメラ10は、画像解析処理により検出情報から特定の情報を抽出し、この抽出した情報を車載ECU100に出力してもよい。カメラ10は、例えば複数搭載され、それぞれ車両Aの周囲の異なる領域を撮像範囲(検出範囲)とする。
ライダ12は、車両Aの進行方向または左右前方へ向けてレーザ光を照射し、照射方向に存在する移動物体および静止物体等で反射されたレーザ光を受信する処理により、検出結果を点群情報として取得する装置である。また、ライダ12は、レーザ光以外の外乱光を受信することで、レーザ光以外の光源から投影された光による明暗を検出することができる。ライダ12は、これらの検出結果を点群情報として車載ECU100に出力する。ライダ12は、回転鏡方式、MEMS方式、およびフェーズドアレイ方式等の走査型であってもよく、またはフラッシュ方式等の非走査型であってもよい。
ミリ波レーダ13は、車両Aの進行方向へ向けてミリ波を照射し、進行方向に存在する移動物体および静止物体等で反射されたミリ波を受信する処理により、検出結果を取得する。ソナー14は、車両Aの周囲へ向けて超音波を照射し、照射方向に存在する移動物体および静止物体等で反射された超音波を受信する処理により、検出情報を取得する。
照明装置20は、車両Aに設けられて車両Aの周囲を照明光の照射により照明する光源である。照明装置20は、例えば車両Aの前方に照明光を照射するヘッドライトおよび車両Aの後方に照明光を照射するテールライトを含む。
照明装置20は、車載ECU100から出力された後述の投影用データを光像として投影可能に構成されている。照明装置20は、例えばレーザ光源、MEMSミラーおよび制御回路を備え、レーザ光をMEMSミラーにより走査制御することで、投影用データに基づく光像を投影面に生成する。照明装置20は、MEMSミラーの制御により、車両Aの側方に対して光像を投影することも可能である。「照明装置20」は、「投影装置」の一例である。
車載ECU100は、各車載センサから取得する自車位置情報および計測情報を組み合わせて、走行環境の認識を行う演算装置である。車載ECU100は、自車位置を特定する処理および自車周囲の物体までの相対距離を算出する処理等を継続的に繰り返す。車載ECU100は、プロセッサ61、RAM62、メモリ装置63および入出力インターフェース64等を含む制御回路を主体に構成されている。
プロセッサ61は、RAM62と結合された演算処理のためのハードウエアであって、種々のプログラムを実行可能である。メモリ装置63は、不揮発性の記憶媒体を含む構成であり、プロセッサ61によって実行される種々のプログラムを格納している。メモリ装置63には、カメラ10の校正に関連するカメラ校正プログラムが少なくとも記憶されている。
車載ECU100は、データベース55に各車載センサについての外部パラメータを記憶している。外部パラメータは、2つの車載センサの間に設定される数値群であり、2つの車載センサにて取得される2つの計測情報を幾何学的に対応付ける。具体的に、外部パラメータは、各車載センサの搭載位置および搭載姿勢(向き)に対応した6軸(x,y,z,roll,pitch,yaw)の形式で規定されている。本実施形態では、複数の車載センサのうちの1つが、外部パラメータを設定するうえで基準となるマスタセンサとされている。データベース55は、マスタセンサを除く各車載センサについて、マスタセンサに対する相対的な外部パラメータを記憶している。車載センサの計測情報に外部パラメータを適用する処理によれば、当該車載センサの座標系における検出物体の位置座標は、マスタセンサの座標系における位置座標に変換可能となる。

車載ECU100は、カメラ10の外部パラメータの校正を実施する。特に第1実施形態の車載ECU100は、カメラ10とライダ12との間に設定される外部パラメータの校正処理を実行する。車載ECU100は、校正した外部パラメータを用いてカメラ10とライダ12とのセンサフュージョンを行い、幾何学的に同一点を示す座標を対応付けて光センサによる検出精度を向上させる。
図3に示すように、車載ECU100は、カメラ10の校正の開始判定処理に関わる機能ブロックとして、センサ情報比較部41、および校正開始判定部42を備える。車載ECU100は、カメラ10の校正処理に関わる機能ブロックとして、投影指示部51、点群情報取得部52、マーカ画像取得部53、および算出部54を備える。
センサ情報比較部41は、カメラ10の撮像した所定の検出物体の検出結果と、カメラ10とは異なる車載センサの検出した検出物体の検出結果とを比較し、比較結果に基づいてカメラ10の校正処理が必要か否かを判断する。カメラ10とは異なる車載センサは、ライダ12、ミリ波レーダ13、およびソナー14等である。例えばセンサ情報比較部41は、カメラ10の検出結果とライダ12の検出結果とを比較することで、カメラ10とライダ12との間に設定された外部パラメータに校正が必要か否かをより確実に判断できる。センサ情報比較部41は、比較対象とするセンサの検出結果に対して、カメラ10の検出結果にずれが生じている場合には、校正処理が必要であると判断し、カメラ10の校正が必要である旨のフラグ(校正必要フラグ)を設定する。
例えば、センサ情報比較部41は、検出物体(他車両や道路設置物等)のトラッキングを、画像データおよび点群情報のそれぞれを用いて行い、各データから算出される検出物体の座標が実質的に一致するか否かを判定する。センサ情報比較部41は、検出物体の座標が実質的に一致する場合、カメラ10の校正が不要であると判断する。一方で検出物体の座標が実質的に一致しない場合、センサ情報比較部41は、カメラ10の校正が必要と判断する。センサ情報比較部41は、例えば所定の走行支援処理の実行のために取得される画像データおよび点群情報を利用して、上述の比較を実施する。
校正開始判定部42は、校正必要フラグが設定されている場合に、校正処理を開始可能か否か判定する。校正開始判定部42は、後述の校正マーカを投影可能な状態である場合に、校正処理を開始可能であると判定する。具体的には、校正開始判定部42は、車両Aが校正マーカを投影可能な位置に到着している到着条件と、車両Aが停車状態である停車条件とが成立しているか否かを判定する。校正開始判定部42は、到着条件および停車条件の両方が成立している場合に、校正処理を開始可能であると判定する。
到着条件は、例えば自車位置情報に基づき、予め設定された施設の所定位置に車両Aが到着した場合に、成立したと判定される。この施設は、実質的に歪みなく校正マーカを投影可能な、比較的平坦な壁、床等を備える施設であり、例えばサービス提供者の車庫や駐車場である。「施設の所定位置」は、「所定の場所」の一例である。なお、投影面からの距離が製造時や工場出荷時等に予め設定されていてもよい。この場合、サービス提供者は校正のための好ましい車両Aの環境に関する情報を提供され、その情報に基づいて車両Aを駐車させる施設の所定位置を設定する。停車条件は、例えば車速情報に基づき、車両Aの車速がゼロとなった場合に、成立したと判定される。または停車条件は、車両Aの走行駆動源が停止した場合に成立したと判定されてもよい。
投影指示部51は、校正開始判定部42における校正処理の開始可能判定に基づいて、照明装置20に対して校正マーカの投影を指示する信号と投影用データとを出力する。投影指示部51は、予めメモリ装置63等に記憶された複数の校正マーカの投影用データを逐次読み出して照明装置20に出力し、投影態様の異なる複数の校正マーカの光像を投影させる。図1に示す例では、投影指示部51は、照明装置20に、車両Aの前方の壁面に対して校正マーカを投影させている。また、図2に示す例では、投影指示部51は、照明装置20により車両Aの側方の壁面および側方の床面に校正マーカを投影させている。
校正マーカは、画像の解析処理によって抽出可能な複数の特徴点を有する図柄である。校正マーカは、所定の形状の図形が規則的に配置された幾何学模様として表され、規則的に並んだ特徴点を呈する。一例として、校正マーカは、図4に示すような白色の矩形と黒色の矩形とが二次元的に交互に配置された格子状の幾何学模様である。このような模様は、チェスボードパターンまたはチェッカーボードパターン等と称される。この校正マーカの場合、矩形の交点が特徴点として抽出される。なお、図4のパターンは、白色の矩形部分が光の照射された部分として表され、黒色の矩形部分が、光の照射されない部分として表される。
投影する校正マーカの情報は、例えば形状、大きさの異なる複数の投影用データとして記憶されている。例えば、矩形のチェスボードパターンを正面視した形状の校正マーカを基本形状とすると、形状の異なる投影用データとして、この基本形状と、基本形状を斜めから見た斜視形状とが記憶されている。すなわち、基本形状に加えて、投影面に対する傾きが基本形状と異なる形状が記憶されている。換言すれば、斜視形状は、基本形状をアフィン変換によって変形した形状である。斜視形状には、例えば正面視に対して基本形状を上下左右の4方向から斜視した4形状が少なくとも含まれている。また、基本形状および斜視形状のそれぞれに関して、大きさの異なる複数の投影用データが記憶されている。投影用データは、例えば20パターン程度記憶されている。
投影指示部51は、上述した複数の投影用データを逐次選択して照明装置20へと出力し、校正マーカを投影させる。また、投影指示部51は、校正の対象となるカメラ10の撮像範囲に校正マーカの全体が含まれるように、投影方向を照明装置20に対して指定する。指定する投影方向は、例えば各カメラ10の撮像範囲に基づいて予め設定されている。または、投影指示部51が、実際の投影時の画像データに基づいて適宜調整する構成であってもよい。
点群情報取得部52は、校正マーカの点群情報をライダ12から取得し、算出部54に逐次出力する。マーカ画像取得部53は、カメラ10によって撮像された校正マーカの画像データ(マーカ画像データ)を、光像情報として取得する。マーカ画像取得部53は、取得した画像データを算出部54に逐次出力する。「マーカ画像取得部53」は、「光像情報取得部」の一例である。
算出部54は、マーカ画像データおよび点群情報に基づいて、カメラ10のライダ12に対する外部パラメータを生成する。例えば、算出部54は、点群情報から抽出された校正マーカの特徴点の位置座標を実質的に真値として扱う。そして算出部54は、マーカ画像データから抽出された校正マーカの特徴点の位置座標を真値に近付ける外部パラメータを生成する。
算出部54は、異なる投影態様の複数の校正マーカそれぞれについて、外部パラメータを生成する。算出部54は、生成した複数の外部パラメータの平均化等の処理により、最終的にカメラ10の校正に適用する校正値を算出する。算出部54は、校正値を現在の外部パラメータに対するオフセット値として算出する。または、算出部54は、校正値として外部パラメータそのものを算出してもよい。算出部54は、算出した校正値をデータベース55に保存する。保存された校正値は、カメラ10から出力された画像データの補正に用いられる。または、校正値は、カメラ10の制御回路へと出力され、カメラ10における画像データ生成時の補正処理に用いられてもよい。
次に、第1実施形態の車載ECU100が実行する処理の一例について、図5および図6のフローチャートを参照して説明する。まず図5に示す校正を開始するための判定処理を説明する。車載ECU100は、図5に示す処理を、車両Aの走行中に開始する。
車載ECU100は、まずステップS10にてカメラ10による車両Aの周囲の検出物体の画像データを取得する。ステップS20では、カメラ10以外の車載センサによる検出物体のセンシングデータ(例えばライダ12の点群情報)を取得する。次にステップS30では、画像データとセンシングデータとをマッチングし、2つのデータによる検出結果を比較する。ステップS40では、ステップS30での比較結果に基づき、画像データから検出した検出物体と、センシングデータから検出した検出物体とのそれぞれの位置座標が実質的に一致するか否かを判定する。ステップS40にて検出結果が一致したと判定すると、カメラ10の校正が必要ないため、フローチャートの処理を終了する。
一方で、検出結果が一致しないと判定すると、ステップS50へと進む。ステップS50では、車両Aが施設の所定位置に到着したか否かを判定する。所定位置に到着していないと判定した場合には、到着するまでこの判定処理を繰り返す。到着した場合には、ステップS55へと進み、車両Aが停車したか否かを判定する。停車していないと判定した場合には、停車するまでこの判定処理を繰り返す。停車したと判定した場合には、ステップS60へと進み、カメラ10の校正処理を実行した後、図5のフローチャートの処理を終了する。
次に、上述のステップS60における校正処理の詳細について、図6のフローチャートを参照して説明する。まずステップS61では、複数の投影用データのうち任意のデータを選択して照明装置20に出力し、照明装置20に当該投影用データの投影を指示する。
ステップS62では、マーカ画像データをカメラ10から取得する。次に、ステップS63では、ライダ12から校正マーカの点群情報を取得する。次にステップS64では、取得したマーカ画像データおよび点群情報のそれぞれから、校正マーカの特徴点を抽出する。次にステップS65では、抽出した特徴点の位置座標に基づいて、外部パラメータを生成する。生成した外部パラメータは、RAM62に一時的に保存する。
次にステップS66では、全ての校正マーカの投影用データを投影したか否かを判定する。全ての投影用データを投影していないと判定した場合には、ステップS67へと進み、設定された投影用データを投影済みでないものへと変更してステップS62へと戻る。
一方ステップS66で全ての校正マーカの投影用データを投影したと判定すると、ステップS68へと進む。ステップS68では、生成した複数の外部パラメータから、校正値を算出する。ステップS69では、算出した校正値をデータベース55に記憶し、校正処理を終了する。
次に第1実施形態の車載ECU100の構成および作用効果について説明する。
車載ECU100は、車両Aに搭載されて光を投影する照明装置20から、校正マーカを表す光像をカメラ10の撮像範囲に投影させる投影指示部51を備える。車載ECU100は、カメラ10によって撮像された校正マーカのマーカ画像データを取得するマーカ画像取得部53と、マーカ画像データに基づいてカメラ10の校正値を算出する算出部54とを備える。
これによれば、カメラ10の校正値を算出するための校正マーカが、照明装置20から光像として投影される。このため、実体物としての校正マーカが設置された設備が不要となる。以上により、実体物の校正マーカを用いることなくセンサの校正が可能なセンサ校正方法および車載ECU100を提供することができる。
またこれによれば、車載ECU100は、特に車両Aの出荷後において、サービス提供者の担当者が自ら校正のために施設を整備したり、あるいは外部の施設へと車両Aを移動させたりする手間を抑制できる。このため、車両Aの出荷後における継続的なカメラ10の校正を、より低コストで実施することが可能となる。
投影指示部51は、車両Aの周囲を照明する照明装置20から校正マーカを投影させる。これによれば、校正マーカを投影するための追加の光源を不要とすることができる。また、照明装置20は、通常車体に対する光軸を調整された状態で取り付けられているため、車両座標系に対する軸ずれを比較的抑制した状態で、カメラ10の校正を実行することができる。
車載ECU100は、校正マーカを表す光像を投影させる際に、投影態様が異なる複数の光像を投影させる。これによれば、車載ECU100は、投影態様の異なる複数のマーカ画像データを用いて校正値を算出できる。したがって、車載ECU100は、算出する校正値の精度をより高めることが可能となる。
車載ECU100は、投影される大きさが異なる複数の校正マーカを投影させる。これによれば、実体物の校正マーカの車両Aに対する距離を変化させた場合と同様のマーカ画像データを取得することができる。このため、車載ECU100は、実体物の校正マーカを用いる場合と比べて、より校正のためのスペースを抑制することができる。
車載ECU100は、基本形状と、基本形状を斜視した斜視形状とを含む複数の校正マーカを投影させる。これによれば、実体物の校正マーカの車両Aに対する傾き角度を変化させた場合と同様のマーカ画像データを取得することができる。このため、車載ECU100は、実体物の校正マーカを用いる場合と比べて、より校正のためのスペースを抑制することができる。
車載ECU100は、車両Aが停車したか否かを判定する校正開始判定部42をさらに備える。車載ECU100は、車両Aが停車したと判定した場合に、校正マーカの投影を開始させる。これによれば、車載ECU100は、車両Aの停車時に校正マーカの投影を開始させることで、校正マーカの撮像時に投影面の状態が経時的に変化して、校正値の精度が低下してしまうことを抑制できる。
校正開始判定部42は、予め設定された施設の所定位置に到着したか否かを判定する。投影指示部51は、所定位置に到着したと判定された場合に、校正マーカの投影を開始させる。これによれば、車載ECU100は、予め設定された場所にて校正マーカを投影させることができるので、投影に適さない投影面に校正マーカを投影させることを回避し得る。このため、車載ECU100は、校正値の精度が低下してしまうことを抑制できる。
車載ECU100は、カメラ10が検出物体を撮像した画像データおよびカメラ10以外の車載センサが検出物体を検出した検出情報を取得し、これらの比較に基づいてカメラ10の校正が必要か否かを判定するセンサ情報比較部41を有する。車載ECU100は、カメラ10の校正が必要と判定している場合に、校正マーカの投影を開始させる。これによれば、車載ECU100は、カメラ10の検出結果と他の車載センサの検出結果とからカメラ10の校正の必要性を判断し、校正が必要な場合に校正処理を実行できる。このため、車載ECU100は、カメラ10の検出精度が低下したタイミングで校正処理を実行でき、カメラ10の検出精度が低下した状態が継続することを回避できる。
(第2実施形態)
第2実施形態では、第1実施形態におけるセンサ校正方法の変形例について説明する。図7において第1実施形態の図面中と同一符号を付した構成要素は、同様の構成要素であり、同様の作用効果を奏するものである。
第2実施形態の投影指示部51は、ライダ12から校正マーカを投影させる。第2実施形態においてライダ12は、レーザ光の照射により所定の形状の光像を車両Aの周囲に投影可能に構成されている。例えば走査型のライダ12の場合、投影用データを取得し、このデータに基づいて照射するレーザ光の走査制御を行うことで、光像を投影できる。またこの場合、カメラ10は、ライダ12のレーザ光の反射光を検出可能とするための波長フィルタを有している。第2実施形態の「ライダ12」は、「投影装置」の一例である。
車載ECU100は、機能ブロックとして基準推定部252を備える。基準推定部252は、校正マーカの基準特徴点の位置座標を推定する。基準特徴点は、投影面に投影された校正マーカの特徴点の、ライダ12の座標系における位置座標である。すなわち、基準特徴点の位置座標は、カメラ10によって検出される後述の検出特徴点に対する基準となる情報である。基準推定部252は、基準特徴点の位置座標を、投影面の状態に基づいて推定する。投影面の状態には、例えば投影面の形状、車両Aからの距離、車両Aに対する角度等が含まれる。投影面の状態は、例えば投影の直前または直後にライダ12によって検出される。
または、基準推定部252は、予めメモリ装置63に記憶された基準特徴点の位置座標を読み出して取得してもよい。この場合、基準特徴点の位置座標は、上述した施設の所定位置にて予め校正マーカを投影、撮像し、その撮像データから取得される初期値である。
または、基準特徴点の位置座標は、製造時や工場出荷時等に予め設定されている値でもよい。この場合、サービス提供者は校正のための好ましい車両Aの環境に関する情報を提供され、その情報に基づいて車両Aを駐車させる施設の所定位置を設定する。
算出部54は、基準推定部252およびマーカ画像取得部53から提供された情報に基づいて、カメラ10のライダ12に対する外部パラメータを生成する。算出部54は、基準推定部252から提供された基準特徴点の位置座標を実質的に真値として扱う。算出部54は、マーカ画像データから特徴点の位置を検出特徴点として検出し、検出特徴点の位置座標を真値に近付ける外部パラメータを生成する。
算出部54は、基準推定部252およびマーカ画像取得部53から提供された情報に基づいて、カメラ10のライダ12に対する外部パラメータを生成する。算出部54は、基準推定部252から提供された基準特徴点の位置座標を実質的に真値として扱う。算出部54は、マーカ画像データから特徴点の位置を検出特徴点として検出し、検出特徴点の位置座標を真値に近付ける外部パラメータを生成する。
車載ECU100は、第1実施形態の図5に示す処理と同様の処理により、校正処理の開始判定を実施する。また、車載ECU100は、第1実施形態の図6に示す処理と同様の処理により、校正処理を実施する。ただし第2実施形態の車載ECU100は、ステップS61において照明装置20の代わりにライダ12に校正マーカの投影を指示する。また、ステップS64では、マーカ画像データから特徴点を抽出するとともに、取得した点群情報から基準特徴点を推定する。
第2実施形態の車載ECU100は、ライダ12に校正マーカを投影させる。これによれば、校正マーカを投影するための追加の光源を不要とすることができる。また、車載ECU100は、ライダ12によって投影面の状態を検出するので、校正マーカを投影する場所を限定されない。特に、ライダ12によって投影面の状態を検出し、ライダ12から校正マーカを投影することで、他の光源から投影する場合と比較して基準特徴点の位置座標の誤差を抑制できる。
(第3実施形態)
第3実施形態では、第1実施形態における光センサ校正方法の変形例について説明する。第1実施形態では、車載ECU100は、照明装置20の投影する校正マーカによってカメラ10とライダ12との間の外部パラメータを校正するとした。これに代えて、またはこれに加えて、車載ECU100は、カメラ10と車両Aとの間の外部パラメータを校正してもよい。
この場合、車載ECU100は、照明装置20により投影される校正マーカの基準特徴点の位置座標を推定する。そして、車載ECU100は、推定した基準特徴点と、マーカ画像データから抽出した検出特徴点とに基づいて、外部パラメータを生成する。基準特徴点は、予め施設の所定位置にて撮像されたマーカ画像データから検出された初期値である。または、基準特徴点は、ライダ12によって検出された投影面の点群情報に基づき算出されてもよい。
照明装置20は、通常車体に対する光軸を調整された状態で取り付けられている。このため、照明装置20から投影された校正マーカに基づいてカメラ10の外部パラメータを校正することで、カメラ10と車両Aとの間の外部パラメータを校正することができる。
(他の実施形態)
この明細書における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、ひとつの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味および範囲内での全ての変更を含むものと解されるべきである。
上述の実施形態において、車載ECU100の搭載される車両Aは、モビリティサービスを提供する無人運転車両であるとしたが、特定のユーザによって個人所有される車両であってもよいし、高度運転支援を提供する有人運転車両であってもよい。
上述の実施形態において、照明装置20またはライダ12が校正マーカを投影するとしたが、校正マーカの投影装置はこれに限定されない。例えば、校正マーカの投影用の光源を、追加的に車両Aに設けてもよい。
上述の実施形態において、チェスボードパターンの校正マーカが投影されるとしたが、特徴点の抽出可能な図柄であれば、校正マーカの図柄はこれに限定されない。例えば図8に示すように、校正マーカは、複数の円形のドットが行列状に配置された図柄であってもよい。このような図柄の場合、特徴点は、ドットの重心点として抽出される。
上述の実施形態において、車載ECU100は、センサ情報比較部41にてカメラ10と他のセンサとの検出情報が一致しなくなった場合に、校正処理が必要と判断する。これに代えて、車載ECU100は、前回の校正処理から一定の期間が経過した際に校正処理が必要と判断する構成であってもよい。この場合、校正処理を行う間隔は、車両Aの提供するサービス内容により規定される、カメラ10へ要求される検出精度などに基づき、任意に設定される。
上述の実施形態において、車載ECU100は、車両Aが停止状態である場合に校正マーカの投影を開始するとしたが、投影面の状態が実質的に変化しないのであれば、走行中に校正マーカの投影を開始してもよい。例えば、車載ECU100は、施設内の壁面と平行に車両Aが走行している際に、校正マーカの投影を開始してよい。この場合、校正マーカを壁面に投影させることで、車両Aの側方を撮像範囲とするカメラ10の校正を実施できる。または、車載ECU100は、実質的に平坦な路面の走行中に、校正マーカを路面に投影させて校正処理を実行してもよい。この場合、車載ECU100は、路面が実質的に平坦か否かを、車載センサの検出結果や高精度地図データ等から取得した情報に基づき判定すればよい。
上述の実施形態において、車載ECU100は、基準に対するカメラ10の外部パラメータを算出するとしたが、外部パラメータだけでなくカメラ10の内部パラメータの校正値を算出してもよい。また、車載ECU100は、ステレオカメラ等の撮像範囲が少なくとも一部重複する複数のカメラ10同士の間の外部パラメータを算出してもよい。また、車載ECU100は、基準に対するライダ12の外部パラメータを算出してもよい。
上述の実施形態のプロセッサは、1つまたは複数のCPU(Central Processing Unit)を含む処理部である。こうしたプロセッサは、CPUに加えて、GPU(Graphics Processing Unit)およびDFP(Data Flow Processor)等を含む処理部であってよい。さらにプロセッサは、FPGA(Field-Programmable Gate Array)、並びにAIの学習及び推論等の特定処理に特化したIPコア等を含む処理部であってもよい。こうしたプロセッサの各演算回路部は、プリント基板に個別に実装された構成であってもよく、またはASIC(Application Specific Integrated Circuit)およびFPGA等に実装された構成であってもよい。
センサ校正プログラム等を記憶するメモリ装置には、フラッシュメモリ及びハードディスク等の種々の非遷移的実体的記憶媒体(non-transitory tangible storage medium)が採用可能である。こうした記憶媒体の形態も、適宜変更されてよい。例えば記憶媒体は、メモリカード等の形態であり、車載ECUに設けられたスロット部に挿入されて、制御回路に電気的に接続される構成であってよい。
本開示に記載の制御部およびその手法は、コンピュータプログラムにより具体化された1つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置およびその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の装置およびその手法は、コンピュータプログラムを実行するプロセッサと1つ以上のハードウエア論理回路との組み合わせにより構成された1つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
100 車載ECU(光センサ校正装置、コンピュータ)、 10 カメラ(光センサ)、 12 ライダ(センサ、投影装置、ライダ装置、車載センサ)、 20 照明装置(投影装置)、 51 投影指示部、 53 マーカ画像取得部(光像情報取得部)、 54 算出部、 61 プロセッサ、 A 車両。

Claims (10)

  1. コンピュータ(100)によって実施され、車両(A)に搭載されたセンサ(10;12)についての校正を行うセンサ校正方法であって、少なくとも1つのプロセッサ(61)上において、
    前記車両に搭載されて光を投影する投影装置(20;12)を用いて、校正マーカを表す光像を前記センサの検出範囲に投影し、
    前記センサによって検出された光像情報を取得し、
    前記光像情報に基づいて前記センサの校正値を算出する、
    というステップを含むセンサ校正方法。
  2. 前記投影装置には、前記車両の周囲を照明する照明装置(20)が含まれており、
    前記光像を投影するステップでは、前記照明装置の照明光により、前記検出範囲に前記校正マーカを投影する請求項1に記載のセンサ校正方法。
  3. 前記投影装置には、レーザ光を照射し、前記レーザ光の反射光に基づいて前記車両の周囲の物体を検出するライダ装置(12)が含まれており、
    前記光像を投影するステップでは、前記ライダ装置の前記レーザ光により、前記検出範囲に前記校正マーカを投影する請求項1または請求項2に記載のセンサ校正方法。
  4. 前記光像を投影するステップでは、投影態様が異なる複数の前記光像を投影する請求項1から請求項3のいずれか1項に記載のセンサ校正方法。
  5. 前記光像を投影するステップでは、投影される大きさが異なる複数の前記光像を投影する請求項4に記載のセンサ校正方法。
  6. 前記光像を投影するステップでは、基本形状と、前記基本形状を斜視した斜視形状とを含む複数の前記光像を投影する請求項4または請求項5に記載のセンサ校正方法。
  7. 前記車両が停車したか否かを判定するステップをさらに含み、
    前記車両が停車したと判定した場合に、前記光像の投影を開始する請求項1から請求項6のいずれか1項に記載のセンサ校正方法。
  8. 前記車両が予め設定された所定の場所に到着したか否かを判定するステップをさらに含み、
    前記所定の場所に到着したと判定した場合に、前記光像の投影を開始する請求項1から請求項7のいずれか1項に記載のセンサ校正方法。
  9. 前記センサによる検出物体の検出情報を取得し、
    前記センサとは異なる車載センサ(12)による前記検出物体の検出情報を取得し、
    前記センサおよび前記車載センサの各前記検出情報の比較に基づいて前記センサの校正が必要か否かを判定し、
    前記センサの校正が必要と判定している場合に、前記光像の投影を開始する請求項1から請求項8のいずれか1項に記載のセンサ校正方法。
  10. 車両(A)に搭載されたセンサ(10;12)についての校正を行うセンサ校正装置であって、
    前記車両に搭載されて光を投影する投影装置(20;12)から、校正マーカを表す光像を前記センサの検出範囲に投影させる投影指示部(51)と、
    前記センサによって検出された光像情報を取得する光像情報取得部(53)と、
    前記光像情報に基づいて前記センサの校正値を算出する算出部(54)と、
    を備えるセンサ校正装置。
JP2018236445A 2018-12-18 2018-12-18 センサ校正方法およびセンサ校正装置 Active JP7056540B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018236445A JP7056540B2 (ja) 2018-12-18 2018-12-18 センサ校正方法およびセンサ校正装置
CN201911294585.1A CN111337906B (zh) 2018-12-18 2019-12-16 传感器校准方法和传感器校准设备
US16/715,150 US10935643B2 (en) 2018-12-18 2019-12-16 Sensor calibration method and sensor calibration apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018236445A JP7056540B2 (ja) 2018-12-18 2018-12-18 センサ校正方法およびセンサ校正装置

Publications (3)

Publication Number Publication Date
JP2020098151A true JP2020098151A (ja) 2020-06-25
JP2020098151A5 JP2020098151A5 (ja) 2021-05-06
JP7056540B2 JP7056540B2 (ja) 2022-04-19

Family

ID=71073545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018236445A Active JP7056540B2 (ja) 2018-12-18 2018-12-18 センサ校正方法およびセンサ校正装置

Country Status (2)

Country Link
US (1) US10935643B2 (ja)
JP (1) JP7056540B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022072332A (ja) * 2020-10-29 2022-05-17 トヨタ自動車株式会社 物体検出装置
JP2022072328A (ja) * 2020-10-29 2022-05-17 トヨタ自動車株式会社 物体検出装置
WO2022114449A1 (ko) * 2020-11-30 2022-06-02 한국전자기술연구원 라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치
WO2022209219A1 (ja) * 2021-03-31 2022-10-06 ソニーグループ株式会社 測距装置およびその信号処理方法、並びに、測距システム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111801546B (zh) * 2018-02-26 2022-04-19 罗伯特·博世有限公司 车辆传感器校准对准和方法
EP3819665B1 (en) * 2019-11-06 2022-01-19 Yandex Self Driving Group LLC Method and computer device for calibrating lidar system
US11423573B2 (en) * 2020-01-22 2022-08-23 Uatc, Llc System and methods for calibrating cameras with a fixed focal point
DE102020213980A1 (de) * 2020-11-06 2022-05-12 Robert Bosch Gesellschaft mit beschränkter Haftung Kalibrierverfahren und Kalibriersystem für einen Fahrzeugsensor
KR20230139560A (ko) * 2022-03-28 2023-10-05 현대자동차주식회사 차량 및 그 제어방법
WO2024035034A1 (ko) * 2022-08-08 2024-02-15 주식회사 아이나비시스템즈 전자 장치 및 센서 셀프-캘리브레이션 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240208A (ja) * 2006-03-06 2007-09-20 Toyota Central Res & Dev Lab Inc 環境認識装置
US20140240690A1 (en) * 2011-09-30 2014-08-28 The Chancellor Masters And Scholars Of The University Of Oxford Determining extrinsic calibration parameters for a sensor
JP2015132540A (ja) * 2014-01-14 2015-07-23 株式会社リコー 測距装置及びロボットピッキングシステム
JP2016080539A (ja) * 2014-10-17 2016-05-16 トヨタ自動車株式会社 車載センサ
JP2017116321A (ja) * 2015-12-22 2017-06-29 トヨタ自動車株式会社 車載ステレオカメラ用のキャリブレーション装置
WO2017159382A1 (ja) * 2016-03-16 2017-09-21 ソニー株式会社 信号処理装置および信号処理方法
JP2018185203A (ja) * 2017-04-25 2018-11-22 トヨタ自動車株式会社 移動ロボット

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10246067B4 (de) * 2002-10-02 2008-01-03 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug
DE102004033114A1 (de) * 2004-07-08 2006-01-26 Ibeo Automobile Sensor Gmbh Verfahren zur Kalibrierung eines Abstandsbildsensors
JP4681856B2 (ja) * 2004-11-24 2011-05-11 アイシン精機株式会社 カメラの校正方法及びカメラの校正装置
JP4555876B2 (ja) * 2008-05-30 2010-10-06 株式会社日本自動車部品総合研究所 車載カメラのキャリブレーション方法
US8489353B2 (en) * 2009-01-13 2013-07-16 GM Global Technology Operations LLC Methods and systems for calibrating vehicle vision systems
JP5444139B2 (ja) * 2010-06-29 2014-03-19 クラリオン株式会社 画像のキャリブレーション方法および装置
EP2530647A1 (en) * 2011-06-01 2012-12-05 Harman Becker Automotive Systems GmbH Method of calibrating a vehicle vision system and vehicle vision system
JP6277652B2 (ja) * 2013-09-30 2018-02-14 株式会社デンソー 車両周辺画像表示装置及びカメラの調整方法
JP6334734B2 (ja) * 2014-01-27 2018-05-30 ザイロン デー.オー.オー.XYLON d.o.o. 車両サラウンドビューシステムの較正用データ処理システムおよび方法
US9952317B2 (en) 2016-05-27 2018-04-24 Uber Technologies, Inc. Vehicle sensor calibration system
US10621753B2 (en) * 2017-09-29 2020-04-14 Intel IP Corporation Extrinsic calibration of camera systems
US11061120B2 (en) * 2018-04-24 2021-07-13 Ford Global Technologies, Llc Sensor calibration

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240208A (ja) * 2006-03-06 2007-09-20 Toyota Central Res & Dev Lab Inc 環境認識装置
US20140240690A1 (en) * 2011-09-30 2014-08-28 The Chancellor Masters And Scholars Of The University Of Oxford Determining extrinsic calibration parameters for a sensor
JP2015132540A (ja) * 2014-01-14 2015-07-23 株式会社リコー 測距装置及びロボットピッキングシステム
JP2016080539A (ja) * 2014-10-17 2016-05-16 トヨタ自動車株式会社 車載センサ
JP2017116321A (ja) * 2015-12-22 2017-06-29 トヨタ自動車株式会社 車載ステレオカメラ用のキャリブレーション装置
WO2017159382A1 (ja) * 2016-03-16 2017-09-21 ソニー株式会社 信号処理装置および信号処理方法
JP2018185203A (ja) * 2017-04-25 2018-11-22 トヨタ自動車株式会社 移動ロボット

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022072332A (ja) * 2020-10-29 2022-05-17 トヨタ自動車株式会社 物体検出装置
JP2022072328A (ja) * 2020-10-29 2022-05-17 トヨタ自動車株式会社 物体検出装置
JP7294302B2 (ja) 2020-10-29 2023-06-20 トヨタ自動車株式会社 物体検出装置
JP7347398B2 (ja) 2020-10-29 2023-09-20 トヨタ自動車株式会社 物体検出装置
WO2022114449A1 (ko) * 2020-11-30 2022-06-02 한국전자기술연구원 라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치
WO2022209219A1 (ja) * 2021-03-31 2022-10-06 ソニーグループ株式会社 測距装置およびその信号処理方法、並びに、測距システム

Also Published As

Publication number Publication date
US10935643B2 (en) 2021-03-02
CN111337906A (zh) 2020-06-26
US20200191927A1 (en) 2020-06-18
JP7056540B2 (ja) 2022-04-19

Similar Documents

Publication Publication Date Title
JP7056540B2 (ja) センサ校正方法およびセンサ校正装置
JP6825569B2 (ja) 信号処理装置、信号処理方法、およびプログラム
US11762071B2 (en) Multi-mode multi-sensor calibration
WO2021227645A1 (zh) 目标检测方法和装置
US11061122B2 (en) High-definition map acquisition system
JP7077910B2 (ja) 区画線検出装置及び区画線検出方法
JP2006151125A (ja) 車載用画像処理装置
JP2007300181A (ja) 周辺認識装置、周辺認識方法、プログラム
JP2009156611A (ja) 移動状態推定装置
JP6237874B2 (ja) 自己位置算出装置及び自己位置算出方法
WO2015125297A1 (ja) 自己位置算出装置及び自己位置算出方法
JP6758160B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP6278791B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
CN112130158B (zh) 对象距离测量装置和方法
WO2015125300A1 (ja) 自己位置算出装置及び自己位置算出方法
WO2015125299A1 (ja) 自己位置算出装置及び自己位置算出方法
JP7424390B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2018073275A (ja) 画像認識装置
WO2021140863A1 (ja) 検出器の姿勢・位置検出システムおよび検出器の姿勢・位置検出方法
JP6370234B2 (ja) 地図データ生成装置、地図データ生成方法及び地図データ生成用コンピュータプログラムならびに車両位置検出装置
CN111337906B (zh) 传感器校准方法和传感器校准设备
CA3122865A1 (en) Method for detecting and modeling of object on surface of road
JP6020736B2 (ja) 予測進路提示装置及び予測進路提示方法
KR102565603B1 (ko) 긴급 제동 시스템의 성능평가 장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220321

R151 Written notification of patent or utility model registration

Ref document number: 7056540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151