JP6776202B2 - 車載カメラのキャリブレーション装置及び方法 - Google Patents

車載カメラのキャリブレーション装置及び方法 Download PDF

Info

Publication number
JP6776202B2
JP6776202B2 JP2017146551A JP2017146551A JP6776202B2 JP 6776202 B2 JP6776202 B2 JP 6776202B2 JP 2017146551 A JP2017146551 A JP 2017146551A JP 2017146551 A JP2017146551 A JP 2017146551A JP 6776202 B2 JP6776202 B2 JP 6776202B2
Authority
JP
Japan
Prior art keywords
calibration
vehicle
camera
feature point
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017146551A
Other languages
English (en)
Other versions
JP2019028665A (ja
Inventor
学 川辺
学 川辺
司 齋藤
司 齋藤
盛彦 坂野
盛彦 坂野
信之 松山
信之 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2017146551A priority Critical patent/JP6776202B2/ja
Priority to US16/634,444 priority patent/US11373333B2/en
Priority to EP18837421.9A priority patent/EP3660788A4/en
Priority to PCT/JP2018/026661 priority patent/WO2019021876A1/ja
Publication of JP2019028665A publication Critical patent/JP2019028665A/ja
Application granted granted Critical
Publication of JP6776202B2 publication Critical patent/JP6776202B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本発明は、車載カメラの外部パラメータを自動的に校正するキャリブレーション装置及び方法に関する。
近年、自動車等の車両に搭載された車載カメラ(以下、単にカメラということがある)を用いて自動駐車や自動運転などの車両制御を行うことが検討されている。カメラにより撮像された画像を用いて車両制御を行うためには、カメラの取り付け位置、取り付け角度などの外部パラメータを正確に求める必要があるが、物理的な取り付け精度は車両制御を行うには不十分である。
また、車両に乗せる人や積載する荷物などの荷重が変動すると、車体が上下したり、車体の傾きが変化するので、それによって、カメラの位置が変動したり、カメラの傾きないし向きが変動する。
従来技術においては、カメラの外部パラメータは、カメラを車両に取り付けた後に、既知パターンを床面に施した測定場で測定して求められていたが、このような方法では、カメラを車両に取り付けた後に測定場に搬入する必要があり、作業量が大きくなっていた。また、前述の方法では、車両の荷重変動による外部パラメータの変動に対処することができない。
そのため、車両走行中にカメラの外部パラメータを校正する方法が用いられるようになってきている。
このように車両走行中に車載カメラの外部パラメータを校正する方法として、下記特許文献1には、カメラから入力される画像に対して、検出された複数の特徴点を追跡し、その特徴点の時系列座標位置からカメラの外部パラメータの推定を行う方法が提案されている。
国際公開第2012/139636号
ところで、上記特許文献1に所載の方法では、使用する特徴点が路面ペイントなどの路面と同じ高さにあることを前提としている。しかしながら、カメラ画像に映る特徴点は、路面と同じ高さにあるとは限らず、壁やガードレール、周辺家屋などの特徴点も捉えてしまい、これらの特徴点を使用して校正を行うと、校正結果にズレが生じてしまう。また、特に車体側面に設置されて車両側方を撮影するサイドカメラにおいては、高さの異なる特徴点が並んでいる場合と、カメラのピッチ角度がずれている場合において、特徴点が同様の軌跡を進むように見えるため、両者の判別が困難であるといった課題もある。
例えば、図6に示す車両の環境では、車載カメラは、路面の特徴点だけではなく、壁に現れる特徴点も検出して追跡を行うことになる。特に車体側面に設置されたサイドカメラでは、視野範囲のほとんどに壁が映るため、その壁面の特徴点を多く取得することになる(特に、図6の上段図参照)。この取得した特徴点を俯瞰画像(車両を真上から見下ろしたような画像)上にマッピングすると、カメラと特徴点を結ぶ直線が路面と交わる点の特徴点として扱われる。この特徴点は図6の下段図に示すように路面上を移動すると認識されるため、車速より早い速度で移動しているように観測される。壁面に高さの異なる複数の特徴点が存在する場合、その位置(高さ)によって見かけ上の移動速度が異なって観測される。この特徴点の移動を基に校正を行うと、サイドカメラのピッチ角度がずれている状態と同一であるので、本来のピッチ角度とは異なる校正結果が得られることになる。
そのため、カメラの校正を行う場合、路面から高さのある特徴点を取り除く必要があるが、図6に示す環境では、ピッチ角度のずれと高さのある特徴点とは見かけ上同一の動きになるため、それらを区別することはできない。
本発明は、上記事情に鑑みてなされたもので、その目的とするところは、校正対象となる車載カメラにより撮像された画像から路面上の特徴点のみを取り出して精度の高い校正結果を得ることのできるキャリブレーション装置及び方法を提供することにある。
上記課題を解決するために、本発明に係るカメラキャリブレーション装置は、複数の車載カメラからの入力を持つ車載カメラシステムにおいて、前記車載カメラの外部パラメータのキャリブレーションを実行するキャリブレーション装置であって、前記キャリブレーションを実行する車載カメラとは異なる1つ以上の車載カメラの画像に映る特徴点を利用して路面範囲を推定し、前記キャリブレーションを実行する車載カメラの画像に映る特徴点のうち、前記推定された路面範囲に存在する特徴点のみを使用してキャリブレーションを実行することを特徴としている。
また、本発明に係るカメラキャリブレーション装置は、複数の車載カメラからの入力を持つ車載カメラシステムにおいて、前記車載カメラの外部パラメータのキャリブレーションを実行するキャリブレーション装置であって、前記キャリブレーションを実行する校正対象の車載カメラとは異なる校正非対象の車載カメラの画像に映る第1特徴点を検出する第1特徴点検出部と、前記校正非対象の車載カメラの時刻の異なる画像から前記第1特徴点を追跡する第1特徴点追跡部と、追跡された前記第1特徴点の移動距離ないし移動速度から前記第1特徴点の高さを算出する特徴点高さ算出部と、前記第1特徴点のうち、路面と同一の高さを持つ第1特徴点が存在する範囲を路面範囲として推定する路面範囲推定部と、前記推定された路面範囲を前記校正対象の車載カメラにおける路面範囲として設定する路面範囲設定部と、前記キャリブレーションを実行する校正対象の車載カメラの画像に映る第2特徴点を検出する第2特徴点検出部と、前記校正対象の車載カメラの時刻の異なる画像から前記第2特徴点を追跡する第2特徴点追跡部と、追跡された前記第2特徴点から前記路面範囲に存在する第2特徴点を選別する特徴点選別部と、前記路面範囲に存在する第2特徴点のみから前記校正対象の車載カメラのキャリブレーションを実行する校正演算部と、を備えることを特徴としている。
また、本発明に係るカメラキャリブレーション方法は、複数の車載カメラからの入力を持つ車載カメラシステムにおいて、前記車載カメラの外部パラメータのキャリブレーションを実行するキャリブレーション方法であって、前記キャリブレーションを実行する車載カメラとは異なる1つ以上の車載カメラの画像に映る特徴点を利用して路面範囲を推定し、前記キャリブレーションを実行する車載カメラの画像に映る特徴点のうち、前記推定された路面範囲に存在する特徴点のみを使用してキャリブレーションを実行することを特徴としている。
本発明によれば、例えば壁面などの路面以外の特徴点が多く取れるシーンでのサイドカメラの校正において、路面上の特徴点のみを適切に取り出して精度の高い校正結果が得られる。それによって、車載カメラにより撮影された画像を用いた自動運転などの安全性を向上させることが可能となる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明に係るキャリブレーション装置の一実施形態が適用される車載カメラシステムのシステム構成を示す概略構成図である。 本発明に係るキャリブレーション装置の一実施形態の内部構成を示すブロック図である。 本発明に係るキャリブレーション装置の一実施形態による処理の流れを説明するフローチャートである。 路面範囲推定部および路面範囲設定部による処理の一例を説明する図である。 路面範囲推定部および路面範囲設定部による処理の他例を説明する図である。 車両の周囲環境と車載カメラの画像に映る特徴点の例を示す図である。
以下、図面を参照して、本発明の実施形態について詳細に説明する。
図1は、本発明に係るキャリブレーション装置の一実施形態が適用される車載カメラシステムのシステム構成を示す概略構成図である。
図示実施形態では、4台のカメラ102〜105が、車両101に搭載され、例えば当該車両101の車体の前後左右に設置される。車両101の車体前面に設置されたフロントカメラ102は、車体前方を撮影して画像を生成し、車両101の車体背面に設置されたリアカメラ103は、車体後方を撮影して画像を生成し、車両101の車体左側面に設置された左サイドカメラ104は、車体左側方を撮影して画像を生成し、車両101の車体右側面に設置された右サイドカメラ105は、車体右側方を撮影して画像を生成する。各カメラ102〜105は、通常、路面(地面)と平行な水平面に対して平行から鉛直下方に向かう方向に光軸が向くように取り付けられる。また、各カメラ102〜105には、車両101の全周囲の画像を取得できるように、例えば広角の魚眼カメラが採用される。
なお、車両101に搭載されるカメラの台数や位置等は、図示例に限定されないことは当然である。
車両101には、各カメラ102〜105で撮影された画像を受信して処理する処理装置としてのECU107が搭載されている。このECU107は、プログラムなどに基づき各種演算処理を行う演算装置としてのCPU、各カメラ102〜105で撮影された画像データなどを格納するRAM、各種演算処理(例えば、後述するカメラの外部パラメータのキャリブレーション)を実行するプログラムやプログラムで必要となる情報などを格納するROM等を含むマイコンで構成されている。
本実施形態では、前記ECU107には、例えば車両101の走行中に、各カメラ102〜105で撮影された画像を用いて、各カメラ102〜105の外部パラメータを自動的に校正するためのキャリブレーション装置110が内蔵されている。
上述したように、各カメラ102〜105のキャリブレーション(校正)を行う場合、校正対象となるカメラ102〜105の画像に映る特徴点から、壁やガードレール、周辺家屋などの路面から高さのある特徴点を取り除く必要がある。これを解決するために、本実施形態では、車体前方を映すことができるフロントカメラ102の情報(画像)を使用する。車体後方を映すことができるリアカメラ103の情報(画像)を使用する場合でも同様のことが可能であるが、本実施形態では、フロントカメラ102の情報(画像)を用いた動作で以下の説明を行う。
フロントカメラ102は、車体前方の特徴点を取得しており、車両101の走行中は、旋廻時などを除き、ほとんどの場合、当該車両101の進行方向に路面を捉えることが可能である。前述したように、路面上の特徴点は、フロントカメラ102の校正が正しい場合、俯瞰画像上では、車両101の車速と同じ速さで後方に移動するが、壁面などの高さが路面とは異なる位置にある特徴点は、車両101の車速より速い速度で移動すると認識される。
すなわち、フロントカメラ102では、車体前方にある路面上の特徴点(フロントカメラ102で撮影された画像中で検出される特徴点)のみを使用してカメラ角度の校正を行うことが可能である。また、校正後に特徴点の移動距離ないし移動速度から、路面の範囲を推定することが可能となる(後で詳述)。
一方、左サイドカメラ104や右サイドカメラ105では、車体側方の特徴点を取得しており、壁面などの高さが路面とは異なる位置にある特徴点を多く取得する傾向にある。そのため、本実施形態では、フロントカメラ102の情報(画像)を用いて、左サイドカメラ104や右サイドカメラ105の画像に映る特徴点から、前記のような特徴点(高さが路面とは異なる位置にある特徴点)を除外・破棄し、路面上の特徴点のみを選別してカメラ角度の校正を行うというものである。
なお、車両101の旋回時は、車体の正面が必ずしも路面とは限らないが、ハンドルの舵角などの車両情報を取得することによって、車両101の旋回を検知することができるため、その場合は、特徴点の取得を停止することによって対応可能である。
以上の本実施形態のキャリブレーション装置110によるキャリブレーションの詳細、特に、キャリブレーション装置110による左サイドカメラ104や右サイドカメラ105のキャリブレーションの詳細を、図2、3を用いて説明する。図2は、図1に示すキャリブレーション装置110の内部構成を示すブロック図であり、図3は、図1に示すキャリブレーション装置110による処理の流れを説明するフローチャートである。
図2に示すように、キャリブレーション装置110は、基本的に、フロントカメラ102の画像から特徴点(第1特徴点)を検出する特徴点検出部(第1特徴点検出部)201、サイドカメラ106(左サイドカメラ104または右サイドカメラ105)の画像から特徴点(第2特徴点)を検出する特徴点検出部(第2特徴点検出部)202、フロントカメラ102の画像中の特徴点を追跡する特徴点追跡部(第1特徴点追跡部)203、サイドカメラ106の画像中の特徴点を追跡する特徴点追跡部(第2特徴点追跡部)204、フロントカメラ102の画像中の特徴点の高さを算出する特徴点高さ算出部205、フロントカメラ102による路面範囲推定部206、サイドカメラ106のキャリブレーションで採用する特徴点範囲(すなわち、路面範囲)を決定するための路面範囲設定部207、サイドカメラ106のキャリブレーションで採用する特徴点を選別する特徴点選別部208、サイドカメラ106のキャリブレーションを実行する校正演算部209を含んで構成されている。
なお、前記キャリブレーション装置110において、フロントカメラ102側の特徴点検出部201とサイドカメラ106側の特徴点検出部202とは共有してもよいし、フロントカメラ102側の特徴点追跡部203とサイドカメラ106側の特徴点追跡部204とは共有してもよいことは詳述するまでも無い。
前記キャリブレーション装置110では、フロントカメラ102側の処理とサイドカメラ106側の処理とはほぼ同時に実行されるものであるが、以下の説明では、フロントカメラ102側の動作から説明を行う。
フロントカメラ102からキャリブレーション装置110に画像が入力されると(図3のS301)、その画像は、特徴点検出部201に入力され、その画像中から特徴点が抽出(検出)される(図3のS302)。ここで言う特徴点とは、複数の画像で同一点を同定しやすい場所(点)のことであり、路面ペイントのコーナー点などが含まれる。この特徴点の検出処理は、公知の検出技術を用いて行われる。
特徴点検出部201で検出された特徴点の座標は、特徴点追跡部203に送られる。特徴点追跡部203では、フロントカメラ102の時刻の異なる画像(時系列画像)から同一点の特徴点の追跡を行う(図3のS303)。この複数の時刻にわたる特徴点の追跡処理は、公知の追跡技術を用いて行われる。
特徴点追跡部203での追跡が完了すると、得られた特徴点(追跡完了特徴点)の座標は保存されるとともに(図3のS304)、特徴点高さ算出部205に送られる。特徴点高さ算出部205では、得られた特徴点の数(すなわち、保存数)が予め決められた規定数に達したか否かを判定し(図3のS305)、規定数に達した場合には、特徴点の座標が俯瞰変換され、路面上の座標に変換される。また、特徴点高さ算出部205では、車両101に設けられた車速センサや車輪速センサなどから得られる車速を基に、路面上の座標の移動距離ないし移動速度から特徴点の高さを計算し(図3のS306)、その特徴点が真に路面上に存在するか否か(言い換えれば、路面と同一の高さを持つか否か)を判定し、その結果が路面範囲推定部206に送られる。
前述のように、特徴点検出部201による特徴点検出と特徴点追跡部203による特徴点追跡は、1回のみではなくフロントカメラ102から画像が入力されるたびに継続的に行われる。一定期間に検出・追跡された特徴点の判定結果(特徴点高さ算出部205による判定結果)は、路面範囲推定部206に蓄積される。路面範囲推定部206では、その結果から路面上と判定された特徴点(つまり、路面と同一の高さを持つ特徴点)の分布範囲を路面上(路面範囲)と推定する(図3のS307)(図4の上段図参照)。
路面範囲推定部206による推定結果は、路面範囲設定部207へ送られてサイドカメラ106側に通知され(図3のS308)、路面範囲設定部207では、サイドカメラ106側で路面と判定する範囲が決定(設定)される(図3のS309)。ここで、サイドカメラ106は校正前の状態であるので、俯瞰変換後の座標に誤差が発生するため、誤差範囲を考慮して路面範囲を設定する。具体的には、通常、当該サイドカメラ106には広角の魚眼カメラが採用されたり不可視領域が存在するので、一定の割合、または一定の長さを路面範囲の端から取り除いた範囲とする(図4の下段図参照)。
この路面範囲設定部207による路面範囲の設定は、定期的に更新される。
次に、サイドカメラ106側の動作を説明する。
サイドカメラ106でも、フロントカメラ102と同様に特徴点の検出と追跡が行われる。
サイドカメラ106からキャリブレーション装置110に画像が入力されると(図3のS310)、その画像は、特徴点検出部202に送られ、その画像中から特徴点の検出が行われる(図3のS311)。この特徴点の検出方法は、フロントカメラ102側の特徴点検出部201で行われる検出方法と同様である。
特徴点検出部202で検出された特徴点の座標は、特徴点追跡部204に送られ、特徴点追跡部204では、サイドカメラ106の時刻の異なる画像から同一点の特徴点の追跡を行う(図3のS312)。この特徴点追跡部204による追跡処理も、フロントカメラ102側の特徴点追跡部203で行われる追跡処理と同様である。
特徴点追跡部204での追跡が完了した特徴点(追跡完了特徴点)の座標は、特徴点選別部208に送られる。特徴点選別部208では、特徴点の座標が抽出されて俯瞰画像上の座標に変換される(図3のS313)。また、特徴点選別部208では、この俯瞰画像上の座標が、路面範囲設定部207から送られる路面範囲に合致するか否か(つまり、路面範囲に存在するか否か)が判断され(図3のS314)、路面範囲内の座標(を持つ特徴点)のみが選別されて校正演算部209に送られて保存される(図3のS315)。なお、路面範囲に存在しないと判断された特徴点は破棄される(図3のS318)。
校正演算部209では、特徴点選別部208で選別されて保存された特徴点(路面範囲内特徴点)の数(すなわち、保存数)が予め決められた規定数に達したか否かを判定し(図3のS316)、規定数に達した場合には、その特徴点(路面範囲内特徴点)を用いて、サイドカメラ106の校正を行う(図3のS317)。この校正演算部209による校正演算処理は、以下の手順で行われる。
すなわち、校正が正しく行われた場合は、特徴点の移動距離は俯瞰座標では車両101の進行距離と一致する。また、車両101が直進している場合は、特徴点はまっすぐ後方に移動する。サイドカメラ106のピッチ角度に誤差がある場合は、特徴点は斜めに進行したり、特徴点の移動距離が車両101の移動距離と異なるようになる。俯瞰変換に用いる角度を微小量変化させると、俯瞰座標上での特徴点の位置が変わるため、特徴点の移動方向や移動距離が変化する。
サイドカメラ106のピッチ角度が変化すると、主に特徴点の移動距離が変化する。そのため、俯瞰変換処理を行う計算に用いるピッチ角度を微小量ずつ変化させ、特徴点の移動距離が車両101の移動距離に一致する角度を求めれば、そのピッチ角度が正しいピッチ角度であると推定される。
また、サイドカメラ106の画像中で検出・追跡される特徴点が、1点ではなく、複数である場合は、各特徴点の移動距離と車両101の移動距離の差分を求め、その絶対値の合計または2乗誤差の合計を評価値として、その評価値が最小になるピッチ角度を求めることにより、サイドカメラ106の校正を行うことができる。
前述の校正の計算は、1回のみで行うこともできるが、繰り返し実行することによって、精度の向上を図ることができる。これは、校正演算部209の1回目の校正結果を特徴点選別部208にフィードバックすることによって実現できる。
特徴点選別部208では、前述の特徴点選別を行う前に特徴点の座標を俯瞰座標に変換する必要があるが、校正が1度も行われていない場合は、設計上の値などを利用する。この角度は大きな誤差を含むため、この特徴点選別では誤差の影響で選別ミスが発生する可能性がある。すなわち、路面上ではあるが、路面端に近い位置にある特徴点が選別で除去されたり、路面外ではあるが、路面に近接していたために、誤った特徴点が選択されてしまう場合がある。このような選別ミスは、校正演算部209の校正結果に誤差を生じさせる原因になる。
校正演算部209の校正結果は、誤差が生じたとしても、校正前の角度情報より信頼性が高い。そのため、特徴点選別部208の特徴点選別の俯瞰変換に校正演算部209の校正結果の角度を使用することによって、選別ミスを少なくすることができる。
すなわち、校正演算部209の校正結果を特徴点選別部208にフィードバックし、特徴点を再選別して2回目の校正を行う。または、新しく得られた特徴点を、フィードバック後の角度で俯瞰変換して選別する。これにより、2回目の校正では、より精度の高い結果が得られる。
前記の校正とフィードバックを繰り返すことによって、より精度の高い校正結果が得られる。
校正演算部209では、このようして一定回数、あるいは一定時間の間に校正を繰り返したのち、最後の校正結果を出力する。
なお、上記実施形態では、フロントカメラ102が存在することを前提として動作を説明したが、フロントカメラ102が存在しない場合はリアカメラ103を用いることで同様の動作が可能である。カメラで撮影された画像による自動運転を前提とした場合、前方監視用のフロントカメラ102は必須であるが、ドライバーの運転補助のみを前提とし、ドライバーからの死角になる後方監視用のリアカメラ103や側方監視用のサイドカメラ106(左サイドカメラ104や右サイドカメラ105)のみを搭載する車載カメラシステムの場合、リアカメラ103を用いることによって、上記実施形態と同様のキャリブレーションを実現することができる。
また、サイドカメラ106は通常は複数存在する。この場合も、路面範囲判定はフロントカメラ102の画像を用いて行い、路面範囲の推定結果を複数のサイドカメラにそれぞれ伝達することによって、複数のサイドカメラの校正を同時に行うことが可能である。なお、演算装置としてのECU107の搭載量削減や消費電力削減を目的として、複数のサイドカメラの校正を同時ではなく、順次実行することも可能である。
また、フロントカメラ102の画像を用いた路面範囲推定から、路面範囲が画像内に映らないカメラを選別することも可能である(図5参照)。この場合、路面範囲の映らないカメラの処理を全て止めてしまうことによって、処理量を削減し、消費電力を削減することができる。また、路面範囲が映らないカメラの処理を止めることによって、処理能力に余裕が生まれるため、その処理能力を他のカメラの校正に使用したり、自動運転の計算などの他の処理に振り分けることによって、安全性を更に高めることも可能である。
以上で説明したように、本実施形態のキャリブレーション装置110では、キャリブレーションを実行するカメラ(サイドカメラ106)とは異なるカメラ(フロントカメラ102やリアカメラ103)の画像に映る特徴点を利用して路面範囲を推定し、キャリブレーションを実行するカメラの画像に映る特徴点のうち、推定された路面範囲に存在する特徴点のみを使用してキャリブレーションを実行することにより、例えば壁面などの路面以外の特徴点が多く取れるシーンでのサイドカメラ106の校正において、路面上の特徴点のみを適切に取り出して精度の高い校正結果が得られる。それによって、各カメラにより撮影された画像を用いた自動運転などの安全性を向上させることが可能である。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
101 車両
102 フロントカメラ
103 リアカメラ
104 左サイドカメラ
105 右サイドカメラ
106 サイドカメラ
107 ECU
110 キャリブレーション装置
201 特徴点検出部(第1特徴点検出部)
202 特徴点検出部(第2特徴点検出部)
203 特徴点追跡部(第1特徴点追跡部)
204 特徴点追跡部(第2特徴点追跡部)
205 特徴点高さ算出部
206 路面範囲推定部
207 路面範囲設定部
208 特徴点選別部
209 校正演算部

Claims (9)

  1. 複数の車載カメラからの入力を持つ車載カメラシステムにおいて、前記車載カメラの外部パラメータのキャリブレーションを実行するキャリブレーション装置であって、
    前記キャリブレーションを実行する車載カメラとは異なる1つ以上の車載カメラの画像に映る特徴点を利用して路面範囲を推定し、
    前記キャリブレーションを実行する車載カメラの画像に映る特徴点のうち、前記推定された路面範囲に存在する特徴点のみを使用してキャリブレーションを実行することを特徴とするキャリブレーション装置。
  2. 請求項1に記載のキャリブレーション装置において、
    前記キャリブレーションを実行する車載カメラとは異なる1つ以上の車載カメラの画像に映る特徴点の移動距離ないし移動速度に基づいて前記路面範囲を推定することを特徴とするキャリブレーション装置。
  3. 請求項1に記載のキャリブレーション装置において、
    前記キャリブレーションを実行する車載カメラとは異なる車載カメラは、車両の前方を撮影するフロントカメラ、あるいは、車両の後方を撮影するリアカメラであることを特徴とするキャリブレーション装置。
  4. 請求項1に記載のキャリブレーション装置において、
    前記キャリブレーションを実行する車載カメラは、車両の側方を撮影するサイドカメラであることを特徴とするキャリブレーション装置。
  5. 複数の車載カメラからの入力を持つ車載カメラシステムにおいて、前記車載カメラの外部パラメータのキャリブレーションを実行するキャリブレーション装置であって、
    前記キャリブレーションを実行する校正対象の車載カメラとは異なる校正非対象の車載カメラの画像に映る第1特徴点を検出する第1特徴点検出部と、
    前記校正非対象の車載カメラの時刻の異なる画像から前記第1特徴点を追跡する第1特徴点追跡部と、
    追跡された前記第1特徴点の移動距離ないし移動速度から前記第1特徴点の高さを算出する特徴点高さ算出部と、
    前記第1特徴点のうち、路面と同一の高さを持つ第1特徴点が存在する範囲を路面範囲として推定する路面範囲推定部と、
    前記推定された路面範囲を前記校正対象の車載カメラにおける路面範囲として設定する路面範囲設定部と、
    前記キャリブレーションを実行する校正対象の車載カメラの画像に映る第2特徴点を検出する第2特徴点検出部と、
    前記校正対象の車載カメラの時刻の異なる画像から前記第2特徴点を追跡する第2特徴点追跡部と、
    追跡された前記第2特徴点から前記路面範囲に存在する第2特徴点を選別する特徴点選別部と、
    前記路面範囲に存在する第2特徴点のみから前記校正対象の車載カメラのキャリブレーションを実行する校正演算部と、を備えることを特徴とするキャリブレーション装置。
  6. 複数の車載カメラからの入力を持つ車載カメラシステムにおいて、前記車載カメラの外部パラメータのキャリブレーションを実行するキャリブレーション方法であって、
    前記キャリブレーションを実行する車載カメラとは異なる1つ以上の車載カメラの画像に映る特徴点を利用して路面範囲を推定し、
    前記キャリブレーションを実行する車載カメラの画像に映る特徴点のうち、前記推定された路面範囲に存在する特徴点のみを使用してキャリブレーションを実行することを特徴とするキャリブレーション方法。
  7. 請求項6に記載のキャリブレーション方法において、
    前記キャリブレーションを実行する車載カメラとは異なる1つ以上の車載カメラの画像に映る特徴点の移動距離ないし移動速度に基づいて前記路面範囲を推定することを特徴とするキャリブレーション方法。
  8. 請求項6に記載のキャリブレーション方法において、
    前記キャリブレーションを実行する車載カメラとは異なる車載カメラは、車両の前方を撮影するフロントカメラ、あるいは、車両の後方を撮影するリアカメラであることを特徴とするキャリブレーション方法。
  9. 請求項6に記載のキャリブレーション方法において、
    前記キャリブレーションを実行する車載カメラは、車両の側方を撮影するサイドカメラであることを特徴とするキャリブレーション方法。
JP2017146551A 2017-07-28 2017-07-28 車載カメラのキャリブレーション装置及び方法 Active JP6776202B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017146551A JP6776202B2 (ja) 2017-07-28 2017-07-28 車載カメラのキャリブレーション装置及び方法
US16/634,444 US11373333B2 (en) 2017-07-28 2018-07-17 Calibration apparatus and method for in-vehicle camera
EP18837421.9A EP3660788A4 (en) 2017-07-28 2018-07-17 DEVICE AND METHOD FOR CALIBRATING A CAMERA ON BOARD A VEHICLE
PCT/JP2018/026661 WO2019021876A1 (ja) 2017-07-28 2018-07-17 車載カメラのキャリブレーション装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017146551A JP6776202B2 (ja) 2017-07-28 2017-07-28 車載カメラのキャリブレーション装置及び方法

Publications (2)

Publication Number Publication Date
JP2019028665A JP2019028665A (ja) 2019-02-21
JP6776202B2 true JP6776202B2 (ja) 2020-10-28

Family

ID=65039638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017146551A Active JP6776202B2 (ja) 2017-07-28 2017-07-28 車載カメラのキャリブレーション装置及び方法

Country Status (4)

Country Link
US (1) US11373333B2 (ja)
EP (1) EP3660788A4 (ja)
JP (1) JP6776202B2 (ja)
WO (1) WO2019021876A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210033467A1 (en) * 2018-04-17 2021-02-04 Autel Inteligent Technology Corp., Ltd. Calibration apparatus, system and method for in-vehicle camera

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7217577B2 (ja) * 2019-03-20 2023-02-03 フォルシアクラリオン・エレクトロニクス株式会社 キャリブレーション装置、キャリブレーション方法
JP2021043486A (ja) * 2019-09-06 2021-03-18 株式会社東芝 位置推定装置
CN114049404B (zh) * 2022-01-12 2022-04-05 深圳佑驾创新科技有限公司 一种车内相机外参标定方法及装置
WO2023244937A1 (en) * 2022-06-14 2023-12-21 Argo AI, LLC Systems and methods for autonomous vehicle sensor calibration and validation
WO2023248257A1 (en) * 2022-06-24 2023-12-28 Ola Electric Mobility Private Limited Detecting a calibration loss of a camera device in a vehicle

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3615868B2 (ja) * 1996-05-24 2005-02-02 日本放送協会 自動撮影カメラシステム
US8373763B2 (en) * 2008-05-22 2013-02-12 GM Global Technology Operations LLC Self calibration of extrinsic camera parameters for a vehicle camera
US9900522B2 (en) * 2010-12-01 2018-02-20 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
WO2012139636A1 (en) 2011-04-13 2012-10-18 Connaught Electronics Limited Online vehicle camera calibration based on road surface texture tracking and geometric properties
JP5898475B2 (ja) * 2011-11-28 2016-04-06 クラリオン株式会社 車載カメラシステム及びその較正方法、及びその較正プログラム
JP5923422B2 (ja) * 2012-09-24 2016-05-24 クラリオン株式会社 カメラのキャリブレーション方法及び装置
JP6780661B2 (ja) * 2016-01-15 2020-11-04 ソニー株式会社 画像処理装置および方法、プログラム、並びに画像処理システム
CN113822939A (zh) * 2017-07-06 2021-12-21 华为技术有限公司 车载传感器的外部参数标定的方法和设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210033467A1 (en) * 2018-04-17 2021-02-04 Autel Inteligent Technology Corp., Ltd. Calibration apparatus, system and method for in-vehicle camera

Also Published As

Publication number Publication date
EP3660788A4 (en) 2021-04-28
WO2019021876A1 (ja) 2019-01-31
US20200211224A1 (en) 2020-07-02
EP3660788A1 (en) 2020-06-03
JP2019028665A (ja) 2019-02-21
US11373333B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
JP6776202B2 (ja) 車載カメラのキャリブレーション装置及び方法
US10424081B2 (en) Method and apparatus for calibrating a camera system of a motor vehicle
US11620837B2 (en) Systems and methods for augmenting upright object detection
JP4962581B2 (ja) 区画線検出装置
CN108932737B (zh) 车载相机俯仰角标定方法和装置、电子设备以及车辆
JP2018512593A (ja) 車両の移動データを使用した車載カメラによる物体位置測定
CN109564098B (zh) 自身位置推定方法及自身位置推定装置
JP6708730B2 (ja) 移動体
JP7077910B2 (ja) 区画線検出装置及び区画線検出方法
US20140063252A1 (en) Method for calibrating an image capture device
JP2018092483A (ja) 物体認識装置
JP6758160B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
US10235579B2 (en) Vanishing point correction apparatus and method
KR102570338B1 (ko) 자동차의 환경에서 타겟 자동차의 궤적을 예측하기 위한 방법 및 시스템
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
CN110637209B (zh) 估计机动车的姿势的方法、设备和具有指令的计算机可读存储介质
JP7261588B2 (ja) 信号機認識方法及び信号機認識装置
JP2012517055A (ja) ビデオに基く車両の運転者援助システムの作動方法及び装置
JP5425500B2 (ja) キャリブレーション装置およびキャリブレーション方法
JP4231883B2 (ja) 画像処理装置及びその方法
JP4151631B2 (ja) 物体検出装置
JP2018120303A (ja) 物体検出装置
JP4225242B2 (ja) 走行路認識装置
JP2017220056A (ja) 情報処理装置
JP2003237509A (ja) 車両用外界認識装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201007

R150 Certificate of patent or registration of utility model

Ref document number: 6776202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150