JP2014165810A - パラメータ取得装置、パラメータ取得方法及びプログラム - Google Patents

パラメータ取得装置、パラメータ取得方法及びプログラム Download PDF

Info

Publication number
JP2014165810A
JP2014165810A JP2013037064A JP2013037064A JP2014165810A JP 2014165810 A JP2014165810 A JP 2014165810A JP 2013037064 A JP2013037064 A JP 2013037064A JP 2013037064 A JP2013037064 A JP 2013037064A JP 2014165810 A JP2014165810 A JP 2014165810A
Authority
JP
Japan
Prior art keywords
vehicle
camera
vectors
installation
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013037064A
Other languages
English (en)
Other versions
JP6151535B2 (ja
Inventor
Naoyuki Okada
直之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2013037064A priority Critical patent/JP6151535B2/ja
Publication of JP2014165810A publication Critical patent/JP2014165810A/ja
Application granted granted Critical
Publication of JP6151535B2 publication Critical patent/JP6151535B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラの設置パラメータを容易に導出する。
【解決手段】車載装置では、画像取得部が、車両9が備えるカメラで車両9の走行中の異なる時点に撮影された2つの撮影画像を取得する。フロー抽出部は、2つの撮影画像間での特徴点の動きを示す複数のオプティカルフローOPを抽出し、複数のオプティカルフローOPを車両9を基準とした車両座標系の複数のベクトルVにそれぞれ変換する。そして、パラメータ導出部は、複数のベクトルVに基いて、カメラの設置に関する設置パラメータを導出する。このため、車載装置2は、車両9の周辺に特徴点として現れる被写体の点が存在しさえすれば設置パラメータを導出できる。
【選択図】図12

Description

本発明は、カメラに関するパラメータを取得するパラメータ取得装置に関する。
従来より、自動車などの車両に搭載されたカメラで得られた車両の周辺の画像を、車室内のディスプレイに表示する車載装置が知られている。このような車載装置を利用することにより、ドライバは車両の周辺の様子をほぼリアルタイムに把握することができる。
カメラを車両に設置した場合においては、通常、カメラの実際の設置状態(位置や姿勢)は設計上の設置状態とは僅かに異なっている。このようなカメラの設置状態の誤差に起因して、当該カメラで取得された撮影画像に含まれる被写体の像の位置は、理想的な位置からズレることになる。
このような問題に対応するため、従来より、カメラの設置に関する設置パラメータ(例えば、パン角、チルト角、ロール角など)を取得するキャリブレーション処理がなされている(例えば、特許文献1参照。)。車載装置は、このようなキャリブレーション処理で取得された設置パラメータを用いることで、撮影画像中の被写体の像の位置を補正することができる。
特開2010−239408号公報
一般に、キャリブレーション処理を実行する場合には、図15に示すように、所定の模様のマーカ103が配置された作業場の所定位置104に車両109が停車される。この状態で、車両109に搭載されたカメラ105が、マーカ103を含む車両9の周囲の撮影画像を取得する。そして、パラメータ取得装置102が、取得された撮影画像に含まれるマーカ103の像の位置に基いてカメラ105の設置パラメータを導出する。
このようなキャリブレーション処理において、設置パラメータを正しく導出するためには、車両109と複数のマーカ103との相対位置を一定とする必要がある。このため、車両109を正確に停車させるための正対装置の導入や、複数のマーカ103の作業場への正確な配置が必要である。しかしながら、このような正対装置の導入やマーカ103を正確に配置するなどの条件を満足することは、一般的なカーディーラや小規模な修理工場などでは困難である。このため、より容易に設置パラメータを導出できる手法が求められていた。
本発明は、上記課題に鑑みてなされたものであり、カメラの設置パラメータを容易に導出できる技術を提供することを目的とする。
上記課題を解決するため、請求項1の発明は、カメラに関するパラメータを取得するパラメータ取得装置であって、車両が備えるカメラで前記車両の走行中の異なる時点に撮影された複数の撮影画像を取得する取得手段と、前記複数の撮影画像間での特徴点の動きを示す複数の第1ベクトルを抽出する抽出手段と、前記複数の第1ベクトルを前記車両を基準とした車両座標系の複数の第2ベクトルに変換する変換手段と、前記複数の第2ベクトルに基いて、前記カメラの設置に関する設置パラメータを導出する導出手段と、を備えている。
また、請求項2の発明は、請求項1に記載のパラメータ取得装置において、前記複数の撮影画像は、前記車両の直進中に撮影される。
また、請求項3の発明は、請求項2に記載のパラメータ取得装置において、前記導出手段は、前記車両の前後方向と前記複数の第2ベクトルとの関係に基いて設置パラメータを導出する。
また、請求項4の発明は、請求項2または3に記載のパラメータ取得装置において、前記導出手段は、前記複数の撮影画像それぞれの撮影時点の相互間において前記車両が移動した移動距離を導出し、前記移動距離と前記複数の第2ベクトルとの関係に基いて設置パラメータを導出する。
また、請求項5の発明は、カメラに関するパラメータを取得するパラメータ取得方法であって、(a)車両が備えるカメラで前記車両の走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、(b)前記複数の撮影画像間での特徴点の動きを示す複数の第1ベクトルを抽出する工程と、(c)前記複数の第1ベクトルを前記車両を基準とした車両座標系の複数の第2ベクトルに変換する工程と、(d)前記複数の第2ベクトルに基いて、前記カメラの設置に関する設置パラメータを導出する工程と、を備えている。
また、請求項6の発明は、コンピュータによって実行可能なプログラムであって、前記コンピュータに、(a)車両が備えるカメラで前記車両の走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、(b)前記複数の撮影画像間での特徴点の動きを示す複数の第1ベクトルを抽出する工程と、(c)前記複数の第1ベクトルを前記車両を基準とした車両座標系の複数の第2ベクトルに変換する工程と、(d)前記複数の第2ベクトルに基いて、前記カメラの設置に関する設置パラメータを導出する工程と、を実行させる。
請求項1ないし6の発明によれば、車両の走行中の異なる時点に撮影された複数の撮影画像間での特徴点の動きを示す複数の第1ベクトルを抽出し、その複数の第1ベクトルを変換した車両座標系の複数の第2ベクトルに基いてカメラの設置に関する設置パラメータを導出する。このため、車両の周辺に特徴点して現れる被写体の点が存在しさえすればカメラの設置パラメータを導出できる。したがって、カメラの設置パラメータを容易に導出できる。
また、特に請求項2の発明によれば、ユーザが車両を単純に直進すればよいため、容易に設置パラメータを導出できる。
また、特に請求項3の発明によれば、車両の前後方向と第2ベクトルの方向との関係に基いて設置パラメータを容易に導出できる。
また、特に請求項4の発明によれば、車両が移動した移動距離を用いることで精度の高い設置パラメータを導出できる。
図1は、パラメータ取得装置の使用場面の一例を示す図である。 図2は、複数のカメラの位置を示す図である。 図3は、車載装置の構成を示す図である。 図4は、合成画像を生成する手法を説明する図である。 図5は、投影面の部分と撮影画像との対応関係を示す図である。 図6は、撮影画像における投影面に投影する領域を説明する図である。 図7は、キャリブレーション処理の流れを示す図である。 図8は、車両に対する被写体点の相対的な位置を示す図である。 図9は、4つのカメラで得られる撮影画像の例を示す図である。 図10は、車両座標系とカメラ座標系との関係を示す図である。 図11は、パラメータ導出処理の流れを示す図である。 図12は、オプティカルフローの車両座標系のベクトルへの変換を説明する図である。 図13は、車両座標系のベクトルを示す図である。 図14は、車両が旋回する場合の設置パラメータの導出手法を説明する図である。 図15は、一般的なキャリブレーション装置を実行する場面の一例を示す図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.パラメータ取得装置の概要>
図1は、本実施の形態のパラメータ取得装置の使用場面の一例を示す図である。車両(本実施の形態では自動車)9に搭載された車載装置2は、車両9が備える複数のカメラ5で得られた複数の撮影画像を用いて合成画像を生成し、車両9の車室内に表示する機能を有している。
車両9が備える複数のカメラ5それぞれの実際の設置状態は、設計上の設置状態とは僅かに異なっている。このため、車載装置2は、このような複数のカメラ5それぞれの設置に関する設置パラメータを取得するパラメータ取得装置としても機能する。設置パラメータは、カメラ5の実際の設置状態を示すものとなる。車載装置2は、キャリブレーション処理を実行して、各カメラ5の設置パラメータを取得する。
図1に示すように、車載装置2がキャリブレーション処理を行う場合は、カメラ5が取得する撮影画像中において特徴点(コーナーなどの際立って検出できる点)として現れる複数の点Pa〜Phを含む被写体が、車両9の周辺の床面(路面)上に存在していればよい。例えば、床面の任意の模様、床面の傷、あるいは、床面に落ちているゴミや工具等であっても、このような被写体となりうる。なお、図1では、説明の便宜上、被写体の点として8つの点Pa〜Phのみを示しているが、実際には多数の点があることが望ましい。以下、このような撮影画像中において特徴点として現れる被写体の点を「被写体点」という。
キャリブレーション処理を行う際には、車載装置2のユーザとなる作業員は車両9を走行させる。車載装置2は、このように車両9の走行中において互いに異なる時点に同一のカメラ5で撮影された2枚の撮影画像を取得し、2枚の撮影画像間での特徴点の動きを示すベクトルであるオプティカルフローに基いて当該カメラ5の設置パラメータを取得する。したがって、作業場に特定のマーカ等を正確に配置するなどの困難な条件を必要とすることなく、設置パラメータを容易に導出できる。また、キャリブレーション処理を、作業場以外の道路などの様々な場所で行うことも可能である。
<2.車載カメラ>
図2は、車両9における複数のカメラ5の位置と光軸の方向(設計上の方向)とを示す図である。複数のカメラ5はそれぞれ、レンズと撮像素子とを備えており、車両9の周辺の撮影画像を電子的に取得する。複数のカメラ5はそれぞれ、車載装置2とは別に車両9の適位置に配置され、取得した撮影画像を車載装置2に入力する。
複数のカメラ5は、フロントカメラ5F、バックカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rを含んでいる。これら4つのカメラ5F,5B,5L,5Rは、互いに異なる位置に配置され、車両9の周辺の異なる方向の撮影画像を取得する。
フロントカメラ5Fは、車両9の前端の左右中央の近傍に設けられ、その光軸5Faは車両9の前後方向に沿って前方に向けられる。バックカメラ5Bは、車両9の後端の左右中央の近傍に設けられ、その光軸5Baは車両9の前後方向に沿って後方に向けられる。左サイドカメラ5Lは車両9の左側のサイドミラー93Lに設けられ、その光軸5Laは車両9の左右方向に沿って左側方に向けられる。また、右サイドカメラ5Rは車両9の右側のサイドミラー93Rに設けられ、その光軸5Raは車両9の左右方向に沿って右側方に向けられる。
これらのカメラ5のレンズには魚眼レンズが採用され、各カメラ5は180度以上の画角Φを有している。このため、4つのカメラ5F,5B,5L,5Rを利用することで、車両9の全周囲を撮影対象とすることが可能である。
<3.車載装置>
図3は主に、車載装置2の構成を示す図である。図に示すように、車載装置2は、4つのカメラ5と通信可能に接続されている。車載装置2は、4つのカメラ5でそれぞれ得られた4つの撮影画像を合成して仮想視点からみた車両9の周辺の様子を示す合成画像を生成し、この合成画像を表示する。車載装置2は、この合成画像を生成する際に、キャリブレーション処理で得られた設置パラメータを利用する。
車載装置2は、ディスプレイ26と、操作部25と、画像取得部22と、画像合成部23と、信号受信部27と、記憶部24と、制御部21とを備えている。
ディスプレイ26は、例えば、液晶パネルなどを備えた薄型の表示装置であり、各種の情報や画像を表示する。ディスプレイ26は、その画面がユーザから視認可能なように、車両9の車室内のインストルメントパネルなどに配置される。
操作部25は、ユーザの操作を受け付ける部材であり、タッチパネル及び操作ボタンを含んでいる。タッチパネルはディスプレイ26の画面に重ねて設けられ、操作ボタンはディスプレイ26の画面の周囲に設けられる。ユーザが操作部25を操作した場合は、その操作の内容を示す信号が制御部21に入力される。
画像取得部22は、4つのカメラ5から、各カメラ5で得られた撮影画像を取得する。画像取得部22は、アナログの撮影画像をデジタルの撮影画像に変換するA/D変換機能などの基本的な画像処理機能を有している。画像取得部22は、取得した撮影画像に所定の画像処理を行い、処理後の撮影画像を画像合成部23及び制御部21に入力する。
画像合成部23は、例えばハードウェア回路であり、所定の画像処理を実行する。画像合成部23は、4つのカメラ5でそれぞれ取得された4つの撮影画像を用いて、任意の仮想視点からみた車両9の周辺の様子を示す合成画像(俯瞰画像)を生成する。画像合成部23が合成画像を生成する手法については後述する。
信号受信部27は、CANなどの車載ネットワーク99を介して、速度センサ91から出力される車両9の速度を示す信号を受信する。信号受信部27は、受信した信号を制御部21に入力する。
記憶部24は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部24は、設置パラメータ24aとプログラム24bとを記憶している。
設置パラメータ24aは、カメラ5の設置に関するパラメータである。設置パラメータ24aは、パン角、チルト角、ロール角などカメラ5の実際の設置状態(実際の光軸の方向)を示すパラメータを含んでいる。このような設置パラメータ24aはカメラ5ごとに異なっているため、記憶部24は、4つのカメラ5それぞれの設置パラメータ24aを記憶する。記憶部24に記憶された設置パラメータ24aは、画像合成部23が合成画像を生成する際に利用される。設置パラメータ24aはキャリブレーション処理によって取得されるため、キャリブレーション処理の実行前は記憶部24に設置パラメータ24aは記憶されていない。
また、プログラム24bは、車載装置2のファームウェアである。このようなプログラム24bは、該プログラム24bを記録したコンピュータ読み取り可能な記録媒体からの読み取りや、ネットワークを介した通信などによって取得し、記憶部24に記憶させることができる。
制御部21は、車載装置2の全体を統括的に制御するマイクロコンピュータである。制御部21は、CPU、RAM及びROMなどを備えている。制御部21の各種の機能は、記憶部24に記憶されたプログラム24bの実行(プログラム24bに従ったCPUの演算処理)によって実現される。図中に示すフロー抽出部21a、座標変換部21b、及び、パラメータ導出部21cは、プログラム24bの実行により実現される機能部の一部である。これらの機能部は、キャリブレーション処理に係る処理を実行する。
フロー抽出部21aは、複数の撮影画像間での特徴点の動きを示すベクトルであるオプティカルフローを抽出する。座標変換部21bは、複数のオプティカルフローを車両9を基準とした車両座標系の複数のベクトルに変換する。また、パラメータ導出部21cは、車両座標系の複数のベクトルに基いて、カメラ5の設置に関する設置パラメータを導出する。これらの機能部の処理の詳細については後述する。
<4.合成画像の生成>
次に、画像合成部23が合成画像を生成する手法について説明する。図4は、画像合成部23が合成画像を生成する手法を説明する図である。
車載装置2が備えるフロントカメラ5F、バックカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rは、車両9の前方、後方、左側方及び右側方をそれぞれ示す4つの撮影画像GF,GB,GL,GRを取得する。これら4つの撮影画像GF,GB,GL,GRには、車両9の全周囲のデータが含まれている。
画像合成部23は、これら4つの撮影画像GF,GB,GL,GRに含まれるデータ(各画素の値)を、仮想的な三次元空間における立体曲面である投影面TSに投影する。投影面TSは、例えば略半球状(お椀形状)をしており、その中心領域(お椀の底部分)は車両9の位置となる車両領域R0として定められている。一方、車両領域R0の外側の領域である投影領域R1は、撮影画像GF,GB,GL,GRのいずれかと対応付けられている。画像合成部23は、撮影画像GF,GB,GL,GRに含まれるデータを投影領域R1に投影する。
図5に示すように、画像合成部23は、投影領域R1において車両9の前方に相当する部分に、フロントカメラ5Fの撮影画像GFのデータを投影する。また、画像合成部23は、投影領域R1において車両9の後方に相当する部分に、バックカメラ5Bの撮影画像GBのデータを投影する。さらに、画像合成部23は、投影領域R1において車両9の左側方に相当する部分に左サイドカメラ5Lの撮影画像GLのデータを投影し、投影領域R1において車両9の右側方に相当する部分に右サイドカメラ5Rの撮影画像GRのデータを投影する。
4つの撮影画像GF,GB,GL,GRのそれぞれにおいて、投影面TSに投影すべきデータを含む領域は、4つのカメラ5それぞれの設置状態の誤差に応じて変化する。このため、画像合成部23は、記憶部24に記憶された4つのカメラ5それぞれの設置パラメータ24a(パン角、チルト角、ロール角など)を用いて、撮影画像GF,GB,GL,GRそれぞれの投影面TSに投影する領域を修正する。
このような投影面TSに投影する領域について、図6に示す撮影画像Gを例に説明する。仮にこの撮影画像Gを取得したカメラ5に関して設置状態の誤差がない場合は、投影面TSに投影すべきデータを含む領域はデフォルトの領域UA1となる。通常はカメラ5の設置状態には誤差が存在することから、画像合成部23は、当該カメラ5の設置パラメータ24aに基づいて、投影面TSに投影する領域を領域UA1から領域UA2に修正する。そして、画像合成部23は、この修正後の領域UA2に含まれるデータを投影面TSに投影することになる。
図4に戻り、このように投影面TSの各部分にデータを投影すると、次に、画像合成部23は、車両9の三次元形状を示すポリゴンのモデルを仮想的に構成する。この車両9のモデルは、投影面TSが設定される三次元空間における車両9の位置である車両領域R0に配置される。
次に、画像合成部23は、三次元空間に対して仮想視点VPを設定する。画像合成部23は、三次元空間における任意の視点位置に任意の視線方向に向けて仮想視点VPを設定できる。そして、画像合成部23は、投影面TSのうち、設定した仮想視点VPからみて所定の視野角に含まれる領域を画像として切り出す。また、画像合成部23は、設定した仮想視点VPに応じてポリゴンのモデルに関してレンダリングを行い、その結果となる二次元の車両像90を、切り出した画像に対して重畳する。これにより、画像合成部23は、仮想視点VPからみた車両9及び車両9の周辺の領域を示す合成画像CPを生成する。
例えば図4に示すように、視点位置を車両9の直上、視線方向を直下とした仮想視点VPaを設定した場合には、画像合成部23は、車両9及び車両9の周辺の領域を俯瞰する合成画像CPaを生成できる。また、視点位置を車両9の左後方、視線方向を車両9の前方とした仮想視点VPbを設定した場合には、画像合成部23は、車両9の左後方からみた車両9及び車両9の周辺を示す合成画像CPbを生成できる。
このような合成画像CPの生成において設置パラメータ24aを用いない場合には、4つの撮影画像GF,GB,GL,GRが整合なく合成されてしまう。その結果、撮影画像同士の境界部分B(図5参照。)で同一の被写体の像が分断されるなどの不自然な合成画像CPが生成されることになる。このため、適切な合成画像CPを生成するためには、カメラ5の実際の設置状態を示す設置パラメータ24aを導出することが必要となる。
<5.キャリブレーション処理>
次に、車載装置2が設置パラメータ24aを取得するキャリブレーション処理の流れについて説明する。図7は、キャリブレーション処理の流れを示す図である。このキャリブレーション処理は、図1に示すような複数の被写体点Pa〜Phを含む被写体が車両9の周辺に存在している状態で、作業員が操作部25を介して所定の操作を車載装置2に行い、さらに、車両9を走行させた場合に実行される。作業員は、クリープ現象を利用して比較的低速に車両9の前後方向に沿って車両9を走行(すなわち、直進)させる。
制御部21は、まず、車両9が走行していることを確認する(ステップS11)。制御部21は、速度センサ91から出力される車両9の速度を示す信号に基いて、車両9の走行を確認する。さらに、制御部21は、速度センサ91からの信号に基いて、車両9の速度が安定したこと(加速度が閾値より低下したこと)を確認する。
制御部21は、車両9の速度が安定したことを確認すると、次に、画像取得部22を制御して、4つのカメラ5のそれぞれから2つの撮影画像を取得させる(ステップS12)。画像取得部22は、互いに異なる時点に撮影された2つの撮影画像を各カメラ5から取得する。同一のカメラ5が2つの撮影画像を撮影する間隔(撮影時点の相互間)は、車両9が例えば約1m進むように予め定められた時間(例えば、0.5秒)とされる。作業員は、このような2つの撮影画像の取得に十分な距離(例えば、3m程度)だけ車両9を走行させると、車両9を停車する。
次に、パラメータ導出部21cが、2つの撮影画像の撮影時点の相互間において、車両9が実際に移動した移動距離を導出する(ステップS13)。パラメータ導出部21cは、2つの撮影画像の撮影時点の相互間(時間)と、速度センサ91からの信号が示す速度とを積分することで実際の移動距離を導出できる。
次に、フロー抽出部21aは、各カメラ5ごとに得られた2つの撮影画像を用いて、オプティカルフローを抽出する(ステップS14)。
図8は、2つの撮影画像それぞれの撮影時点における車両9に対する被写体点の相対的な位置を示す図である。1枚目の撮影画像の撮影時点の被写体点Pa〜Phはそれぞれ、2枚目の撮影画像の撮影時点において被写体点Pat〜Phtとなる。車両9は直進することから、被写体点Pa〜Phは、車両9に対して相対的に車両9の前後方向に沿って後方に移動する。
図9は、図8のように被写体点が相対移動した場合において、4つのカメラ5で得られる撮影画像GF,GL,GR,GBの例を示す図である。図9においては、説明の便宜上、同一のカメラ5で得られた2つの撮影画像については重ねて示している。
図9に示すように、図8に示す被写体点は、撮影画像中において特徴点として現れる。図9では、特徴点の符号を、その特徴点に対応する被写体点の符号と同一としている。図8と図9とを比較して分かるように、車両9の前方の被写体点Pc,Pd,Pct,Pdtは、フロントカメラ5Fで得られた撮影画像GFの特徴点となる。また、車両9の後方の被写体点Pg,Ph,Pgt,Pgtは、バックカメラ5Bで得られた撮影画像GBの特徴点となる。車両9の左側方の被写体点Pa,Pb,Pat,Pbtは、左サイドカメラ5Lで得られた撮影画像GLの特徴点となる。車両9の右側方の被写体点Pe,Pf,Pet,Pftは、右サイドカメラ5Rで得られた撮影画像GRの特徴点となる。
フロー抽出部21aは、このような撮影画像中に含まれる特徴点を抽出し、同一のカメラ5で得られた2つの撮影画像間での特徴点の動きを示すベクトルをオプティカルフローOPとして抽出する。
フロー抽出部21aは、まず、ハリスオペレータなどの周知の手法により、同一のカメラ5で得られた2つの撮影画像それぞれの特徴点を抽出する。車両9から離れた被写体点ほど、その対応する特徴点の撮影画像中での位置の誤差が大きくなる。このため、フロー抽出部21aは、車両9から所定距離(例えば、2m)以内の範囲に相当する領域(図9の領域TA)に含まれる特徴点のみを抽出する。
次に、フロー抽出部21aは、1枚目の撮影画像から抽出された特徴点と、2枚目の撮影画像から抽出された特徴点とを対応付ける。そして、フロー抽出部21aは、対応する2つの特徴点それぞれの位置に基づいて、特徴点の動きを示すベクトルであるオプティカルフローOPを抽出する。フロー抽出部21aは、このようなオプティカルフローOPの抽出を、4つのカメラ5の全てに関して実行する。
次に、フロー抽出部21aは、一つのカメラ5の撮影画像から抽出されたオプティカルフローOPの数が閾値(例えば、「5」)以上であるか否かを判定する(ステップS15)。これにより、フロー抽出部21aは、設置パラメータ24aの導出のために十分な数のオプティカルフローOPが抽出されたか否かを判定する。
4つのカメラ5のうちの一つのカメラ5であってもこの条件(オプティカルフローOPの数が閾値以上)を満足しない場合は(ステップS15にてNo)、ディスプレイ26を介して、被写体点の数が不十分なカメラ5を特定する情報が作業員(ユーザ)に報知され(ステップS19)、キャリブレーション処理が終了する。この場合は、作業員は、被写体点を含む被写体(例えば、工具等)を、対象となるカメラ5で撮影可能な範囲に配置してから、再度、車載装置2にキャリブレーション処理を実行させる。この場合において、作業員は、対象となるカメラ5で撮影可能な領域に被写体を配置しさえすれば、どのような位置に被写体を配置してもよい。
4つのカメラ5の全てでオプティカルフローOPの数が閾値以上という条件を満足する場合は(ステップS15にてYes)、次に、パラメータ導出部21cが、4つのカメラ5のうち一のカメラ5を処理の対象とする「注目カメラ」として選択する(ステップS16)。そして、パラメータ導出部21cが、この注目カメラ5の設置パラメータ24aを導出するパラメータ導出処理を実行する(ステップS17)。このパラメータ導出処理においては、注目カメラ5の撮影画像から抽出された複数のオプティカルフローOPに基いて設置パラメータ24aが導出されるが、詳細は後述する。
パラメータ導出処理が終了すると、処理はステップS16に戻り、パラメータ導出部21cは、注目カメラ5に設定されていない他のカメラ5を新たな注目カメラ5に設定して、パラメータ導出処理を繰り返す。パラメータ導出部21cは、このような処理を繰り返すことにより、4つのカメラ5の全ての設置パラメータ24aを導出する。4つのカメラ5の全ての設置パラメータ24aが導出されると(ステップS18にてYes)、キャリブレーション処理が終了する。
<6.パラメータ導出処理>
次に、パラメータ導出処理(ステップS17)の詳細について説明する。パラメータ導出処理では、車両9を基準とした車両座標系(ワールド座標系)と、注目カメラ5を基準としたカメラ座標系(ローカル座標系)とが用いられる。図10は、車両座標系とカメラ座標系との関係を示す図である。
車両座標系は、x軸,y軸,z軸を有する三次元直交座標系であり、車両9を基準として設定される。車両座標系のy軸は車両9の前後方向、x軸は車両9の左右方向、z軸は鉛直方向にそれぞれ沿うように設定される。また、車両座標系の原点oは平面視で車両9の中心となる床面(路面)に設定される。
これに対して、カメラ座標系は、X軸,Y軸,Z軸を有する三次元直交座標系であり、注目カメラ5を基準として設定される。カメラ座標系のZ軸は注目カメラ5の光軸、X軸は撮像素子の水平方向、Y軸は撮像素子の上下方向にそれぞれ沿うように設定される。また、カメラ座標系の原点Oは、注目カメラ5のレンズの位置に設定される。一般に、車両座標系とカメラ座標系とでは各座標軸の方向は一致しない。
車両座標系に対するカメラ座標系の位置や姿勢は、並進成分Tと回転成分Rとで表すことができる。この車両座標系に対するカメラ座標系の位置や姿勢は、車両9における注目カメラ5の実際の設置状態(位置や姿勢)に相当する。注目カメラ5の実際の位置は車両座標系における並進成分Tで表すことができ、また、注目カメラ5の実際の姿勢は車両座標系に対する回転成分Rで表すことができる。回転成分Rは、z−x−z系のオイラー角(α,β,γ)で定義され、α,β,γはそれぞれパン角、チルト角、ロール角に相当する。本実施の形態では、カメラ5が所定の位置に配置されることから、並進成分Tについては既知である。したがって、パラメータ導出部21cは、注目カメラ5の設置パラメータとしてパン角、チルト角、ロール角に相当するα,β,γを導出する。
カメラ座標系のある点の座標位置を同次座標で表現されるPとした場合、次の数1によって、車両座標系における座標位置Pに変換することができる。
Figure 2014165810
数1において、Mは変換行列であり、上述した並進成分T及び回転成分Rを用いて次の数2によって表される。
Figure 2014165810
また、並進成分Tは、次の数3によって表される。既述のように、この並進成分TのT,T,Tは既知である。
Figure 2014165810
一方、回転成分Rは、パン角α,チルト角β,ロール角γを用いて次の数4によって表される。
Figure 2014165810
したがって、数1の変換行列Mは、次の数5によって表すことができる。
Figure 2014165810
パラメータ導出処理においては、数1の変換式が用いられ、注目カメラ5の撮影画像から抽出された複数のオプティカルフローOPが、車両座標系の複数のベクトルにそれぞれ変換されることになる。
図11は、パラメータ導出処理の流れを示す図である。以下、パラメータ導出処理の流れについて説明する。
まず、パラメータ導出部21cは、注目カメラ5の撮影画像から抽出された複数のオプティカルフローOPそれぞれの始点及び終点の位置を、注目カメラ5を基準としたカメラ座標系の座標位置Pとして導出する(ステップS21)。
カメラ5のレンズは魚眼レンズであるため、カメラ5で得られた撮影画像に含まれる被写体の像には、ディストーション(歪曲収差)と呼ばれる比較的大きな歪が生じる(図6参照。)。このため、パラメータ導出部21cは、カメラ5のディストーションの特性を考慮して、複数のオプティカルフローOPそれぞれの始点及び終点の位置を補正する。これにより、パラメータ導出部21cは、複数のオプティカルフローOPそれぞれの始点及び終点の位置を、カメラ座標系の座標位置Pとして導出する。カメラ5のディストーションの特性を示すデータは、予め記憶部24に記憶されている。
次に、パラメータ導出部21cは、設置パラメータであるパン角α,チルト角β,ロール角γのそれぞれに仮値を設定する(ステップS22)。そして、パラメータ導出部21cは、設置パラメータの仮値を用いて、後述する評価値Eを導出する(ステップS24)。パラメータ導出部21cは、この仮値の組み合わせを変更しつつ(ステップS27)、評価値Eの導出(ステップS24)を繰り返す。そして、予め設定された範囲の仮値の全ての組み合わせについて評価値Eを導出し、評価値Eが最も低くなる仮値の組み合わせを設置パラメータとして導出するようになっている(ステップS28)。パン角α,チルト角β,ロール角γのそれぞれの仮値は、基準となる角度を中心として例えば−10°〜+10°の範囲で、ループごとの増加量を例えば0.1°として変更される(ステップS27)。
設置パラメータに仮値が設定されると(ステップS22)、パラメータ導出部21cは、カメラ座標系の座標位置Pで表される複数のオプティカルフローOPそれぞれの始点及び終点の位置を、車両座標系の座標位置Pに変換する(ステップS23)。この変換には、前述した数1が用いられる。パラメータ導出部21cは、数1の変換行列M(数5)に含まれるα,β,γに、ステップS22で設定した仮値を代入して利用する。
これにより、複数のオプティカルフローOPそれぞれの始点及び終点の位置が、車両座標系の座標位置Pで表される。パラメータ導出部21cは、このように車両座標系の座標位置Pで表されたオプティカルフローOPの始点から終点へ向かうベクトルVを導出する。このようにして、パラメータ導出部21cは、注目カメラ5の撮影画像から抽出された複数のオプティカルフローOPを、車両座標系の複数のベクトルVにそれぞれ変換する。
例えば、図12に示すように、左サイドカメラ5Lで得られた撮影画像GLから抽出された複数のオプティカルフローOPは、車両座標系における車両9の左側に相当する位置の複数のベクトルVに変換されることになる。なお、図12においては、車両座標系のベクトルVの始点及び終点の符号を、その始点あるいは終点に対応する撮影画像GL中の特徴点の符号と同一としている。また、図12中では、説明の便宜上、2つのベクトルVのみを示しているが、実際には、注目カメラ5に係るベクトルVとして図7のステップS15で用いた閾値以上の数のベクトルVが存在している。
2つの撮影画像を撮影する際に車両9は直進したため、このように変換された車両座標系の複数のベクトルVは、理想的には車両9の前後方向に沿うはずである。この原理に基づいて、評価値Eを定める変数となる第1変数Eは、注目カメラ5に係る複数のベクトルVが車両9の前後方向に一致するほど小さくなるように設定される。第1変数Eは、車両9の前後方向と複数のベクトルVとの関係に基いて導出される変数であるともいえる。
具体的には、図13に示すように、各ベクトルVをx軸方向(左右方向)とy軸方向(前後方向)とに分解し、それぞれの長さをV,Vとする。そして、注目カメラ5に係るベクトルVの数をnとし、n個のベクトルV(i=1〜n)それぞれのx軸方向の長さVをVxiとすると、第1変数Eは、次の数6で表される。
Figure 2014165810
また、車両座標系の複数のベクトルVの長さは、理想的には2つの撮影画像の撮影時点の相互間において車両9が実際に移動した移動距離(図7のステップS13で導出された移動距離)と一致するはずである。この原理に基づいて、評価値Eを定める他の変数となる第2変数Eは、注目カメラ5に係る複数のベクトルVの長さが移動距離に一致するほど小さくなるように設定される。第2変数Eは、移動距離と複数のベクトルVとの関係に基いて導出される変数であるともいえる。
具体的には、次の数7に示すように、ベクトルVの長さをDとする。
Figure 2014165810
そして、n個のベクトルV(i=1〜n)それぞれの長さDをDとし、図7のステップS13で導出された移動距離をDとすると、第2変数Eは次の数8で表される。
Figure 2014165810
パラメータ導出部21cは、注目カメラ5に係る複数のベクトルVを導出すると、その複数のベクトルVに基いて以上の手法で第1変数E及び第2変数Eを導出する。さらに、パラメータ導出部21cは、第1変数E及び第2変数Eを用いて、次の数9により評価値Eを導出する(ステップS24)。
Figure 2014165810
この評価値Eは、ステップS22において設置パラメータに設定した仮値の組み合わせに関する妥当性の程度を示すことになる。すなわち、評価値Eが小さいほど、仮値の組み合わせの妥当性の程度は高くなる。
次に、パラメータ導出部21cは、今回導出した評価値Eを、過去に導出済の評価値Eの最小値と比較する。この評価値Eの最小値は、制御部21のRAMなどに記憶される。そして、パラメータ導出部21cは、今回の評価値Eが過去に導出済の評価値Eの最小値よりも小さい場合は、最小値を更新して今回の評価値Eを新たな最小値とする(ステップS25)。
このようなステップS23〜S25の処理は、設置パラメータへ設定する仮値の組み合わせごとに繰り返される。そして、仮値の全ての組み合わせについて処理が終了した場合は(ステップS26にてYes)、その時点で最小値となった評価値Eに対応する仮値の組み合わせが、実際の設置パラメータ(パン角α,チルト角β,ロール角γ)に最も近いことになる。このため、パラメータ導出部21cは、この仮値の組み合わせを、実際の設置パラメータ24aとして導出する(ステップS28)。パラメータ導出部21cは、導出した設置パラメータ24aを、注目カメラ5に関連付けて記憶部24に記録する(ステップS29)
以上のように、本実施の形態の車載装置2では、画像取得部22が、車両9が備えるカメラ5で車両9の走行中の異なる時点に撮影された2つの撮影画像を取得する。車載装置2のフロー抽出部21aは、2つの撮影画像間での特徴点の動きを示す複数のオプティカルフローOPを抽出し、複数のオプティカルフローOPを車両9を基準とした車両座標系の複数のベクトルVにそれぞれ変換する。そして、パラメータ導出部21cは、複数のベクトルVに基いて、カメラ5の設置に関する設置パラメータを導出する。
このため、車載装置2は、車両9の周辺に特徴点として現れる被写体の点が存在しさえすれば設置パラメータを導出できる。したがって、作業場に特定のマーカ等を正確に配置するなどの困難な条件を必要とすることなく、設置パラメータを容易に導出することができる。
また、設置パラメータの導出に用いる2つの撮影画像は、車両9の直進中に撮影される。このため、キャリブレーション処理を行う際には、作業員は、車両9を単純に直進させればよいため、容易に設置パラメータを導出できる。
また、パラメータ導出部21cは、車両9の前後方向と複数のベクトルVとの関係に基いて設置パラメータを導出する。このため、比較的単純な手法で、設置パラメータを導出できる。
また、パラメータ導出部21cは、複数の撮影画像それぞれの撮影時点の相互間において車両が移動した移動距離Dを導出し、移動距離Dと複数のベクトルVとの関係に基いて設置パラメータを導出する。このように車両9が実際に移動した移動距離Dを用いることで、精度の高い設置パラメータを導出できる。
<7.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、移動距離Dと複数のベクトルVとの関係に基いて第2変数Eを求めていたが、移動距離Dを用いなくてもよい。車両座標系の複数のベクトルVの長さDは、理想的には全て一致するはずである。この原理に基づいて、複数のベクトルVの長さDのばらつきの程度を示す分散や標準偏差などを、第2変数Eとしてもよい。例えば、n個のベクトルV(i=1〜n)の長さDの分散を第2変数Eとする場合は、第2変数Eは次の数10で表される。数10において、Dは長さD(i=1〜n)の平均値である。
Figure 2014165810
また、上記実施の形態では、評価値Eは、第1変数Eと第2変数Eとを単純に加算したものであったが、いずれかの変数に重みをつけて加算してもよい。この場合は、第1変数Eに重みをつけることが望ましい。また、評価値Eは、第1変数Eと第2変数Eとを乗算したものであってもよい。また、第1変数Eに関する仮値の組み合わせの妥当性の順位と、第2変数Eに関する仮値の組み合わせの妥当性の順位とを用いて、評価値Eを導出してもよい。
また、上記実施の形態では、2つの撮影画像を撮影する際に車両9を直進させると説明したが、一定の舵角で旋回させてもよい。この場合は、図14に示すように、車両9の舵角とホイールベースの長さとに基いて車両9の旋回中心RCを定めることができる。さらに、車両9の実際の移動距離に基いて、旋回中心RCを中心とした車両9の実際の旋回角度θを求めることができる。オプティカルフローOPを変換した車両座標系のベクトルVの始点及び終点並びに旋回中心RCで三角形を形成した場合、理想的には、旋回中心RCとなる三角形の頂点の内角θは実際の旋回角度θと一致するはずである。この原理に基いて、この場合は、n個のベクトルV(i=1〜n)それぞれに関する内角θをθとして、次の数11で表される評価値Eを用いることができる。なお、この場合も、内角θのばらつきの程度を示す分散や標準偏差などを評価値Eとしてもよい。
Figure 2014165810
また、上記実施の形態では、設置パラメータとしては、カメラ5の実際の姿勢を示すパン角α,チルト角β,ロール角γのみを設置パラメータとして導出していたが、カメラ5の実際の位置を示す並進成分TのT,T,Tをさらに設置パラメータとして導出してもよい。この場合は、α,β,γ,T,T,Tの全てに仮値を設定して、上述した処理と同様の処理を行なえばよい。
また、上記実施の形態では、床面(路面)上の被写体点を、設置パラメータの導出に用いるものとして説明した。これに対して、距離センサ等で被写体点までの距離が分かる場合は、床面上ではない被写体点を設置パラメータの導出に用いてもよい。この場合は、被写体点の高さが分かるため、その高さを考慮して車両座標系への変換を行えばよい。また、被写体点までの距離が分かる場合は、床面上に存在していない被写体点を処理の対象から排除してもよい。
また、上記実施の形態においては、複数のカメラ5の設置パラメータを導出していたが、一つのカメラ5の設置パラメータを導出する場合であっても上述した手法を適用可能である。
また、上記実施の形態において一つのブロックとして説明した機能は必ずしも単一の物理的要素によって実現される必要はなく、分散した物理的要素によって実現されてよい。また、上記実施の形態で複数のブロックとして説明した機能は単一の物理的要素によって実現されてもよい。また、車両内の装置と車両外の装置とに任意の一つの機能に係る処理を分担させ、これら装置間において通信によって情報の交換を行うことで、全体として当該一つの機能が実現されてもよい。
また、上記実施の形態においてプログラムの実行によってソフトウェア的に実現されると説明した機能の全部又は一部は電気的なハードウェア回路により実現されてもよく、ハードウェア回路によって実現されると説明した機能の全部又は一部はソフトウェア的に実現されてもよい。また、上記実施の形態において一つのブロックとして説明した機能が、ソフトウェアとハードウェアとの協働によって実現されてもよい。
2 車載装置
5 カメラ
9 車両
21 制御部
22 画像取得部
24a 設置パラメータ
24b プログラム

Claims (6)

  1. カメラに関するパラメータを取得するパラメータ取得装置であって、
    車両が備えるカメラで前記車両の走行中の異なる時点に撮影された複数の撮影画像を取得する取得手段と、
    前記複数の撮影画像間での特徴点の動きを示す複数の第1ベクトルを抽出する抽出手段と、
    前記複数の第1ベクトルを前記車両を基準とした車両座標系の複数の第2ベクトルに変換する変換手段と、
    前記複数の第2ベクトルに基いて、前記カメラの設置に関する設置パラメータを導出する導出手段と、
    を備えることを特徴とするパラメータ取得装置。
  2. 請求項1に記載のパラメータ取得装置において、
    前記複数の撮影画像は、前記車両の直進中に撮影されることを特徴とするパラメータ取得装置。
  3. 請求項2に記載のパラメータ取得装置において、
    前記導出手段は、前記車両の前後方向と前記複数の第2ベクトルとの関係に基いて設置パラメータを導出することを特徴とするパラメータ取得装置。
  4. 請求項2または3に記載のパラメータ取得装置において、
    前記導出手段は、前記複数の撮影画像それぞれの撮影時点の相互間において前記車両が移動した移動距離を導出し、
    前記移動距離と前記複数の第2ベクトルとの関係に基いて設置パラメータを導出することを特徴とするパラメータ取得装置。
  5. カメラに関するパラメータを取得するパラメータ取得方法であって、
    (a)車両が備えるカメラで前記車両の走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、
    (b)前記複数の撮影画像間での特徴点の動きを示す複数の第1ベクトルを抽出する工程と、
    (c)前記複数の第1ベクトルを前記車両を基準とした車両座標系の複数の第2ベクトルに変換する工程と、
    (d)前記複数の第2ベクトルに基いて、前記カメラの設置に関する設置パラメータを導出する工程と、
    を備えることを特徴とするパラメータ取得方法。
  6. コンピュータによって実行可能なプログラムであって、
    前記コンピュータに、
    (a)車両が備えるカメラで前記車両の走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、
    (b)前記複数の撮影画像間での特徴点の動きを示す複数の第1ベクトルを抽出する工程と、
    (c)前記複数の第1ベクトルを前記車両を基準とした車両座標系の複数の第2ベクトルに変換する工程と、
    (d)前記複数の第2ベクトルに基いて、前記カメラの設置に関する設置パラメータを導出する工程と、
    を実行させることを特徴とするプログラム。
JP2013037064A 2013-02-27 2013-02-27 パラメータ取得装置、パラメータ取得方法及びプログラム Active JP6151535B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013037064A JP6151535B2 (ja) 2013-02-27 2013-02-27 パラメータ取得装置、パラメータ取得方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013037064A JP6151535B2 (ja) 2013-02-27 2013-02-27 パラメータ取得装置、パラメータ取得方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014165810A true JP2014165810A (ja) 2014-09-08
JP6151535B2 JP6151535B2 (ja) 2017-06-21

Family

ID=51616014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013037064A Active JP6151535B2 (ja) 2013-02-27 2013-02-27 パラメータ取得装置、パラメータ取得方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6151535B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017135081A1 (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 車載カメラ用校正システム
JP2017158142A (ja) * 2016-03-04 2017-09-07 株式会社デンソー キャリブレーション装置
JP2018136739A (ja) * 2017-02-22 2018-08-30 クラリオン株式会社 キャリブレーション装置
JP2018177004A (ja) * 2017-04-13 2018-11-15 クラリオン株式会社 車載カメラのキャリブレーション装置
WO2019073772A1 (ja) * 2017-10-11 2019-04-18 日立オートモティブシステムズ株式会社 移動体の位置推定装置及び位置推定方法
JP2020107938A (ja) * 2018-12-26 2020-07-09 株式会社デンソーアイティーラボラトリ カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム
JP2020198074A (ja) * 2019-05-29 2020-12-10 株式会社デンソーテン 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2008172535A (ja) * 2007-01-11 2008-07-24 Sanyo Electric Co Ltd 運転支援システム、画像処理装置及びずれ検出方法
JP2009129001A (ja) * 2007-11-20 2009-06-11 Sanyo Electric Co Ltd 運転支援システム、車両、立体物領域推定方法
JP2011217233A (ja) * 2010-04-01 2011-10-27 Alpine Electronics Inc 車載カメラ校正システム及びコンピュータプログラム
JP2014048803A (ja) * 2012-08-30 2014-03-17 Denso Corp 画像処理装置、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2008172535A (ja) * 2007-01-11 2008-07-24 Sanyo Electric Co Ltd 運転支援システム、画像処理装置及びずれ検出方法
JP2009129001A (ja) * 2007-11-20 2009-06-11 Sanyo Electric Co Ltd 運転支援システム、車両、立体物領域推定方法
JP2011217233A (ja) * 2010-04-01 2011-10-27 Alpine Electronics Inc 車載カメラ校正システム及びコンピュータプログラム
JP2014048803A (ja) * 2012-08-30 2014-03-17 Denso Corp 画像処理装置、及びプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017135081A1 (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 車載カメラ用校正システム
JP2017139612A (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 車載カメラ用校正システム
JP2017158142A (ja) * 2016-03-04 2017-09-07 株式会社デンソー キャリブレーション装置
JP2018136739A (ja) * 2017-02-22 2018-08-30 クラリオン株式会社 キャリブレーション装置
JP2018177004A (ja) * 2017-04-13 2018-11-15 クラリオン株式会社 車載カメラのキャリブレーション装置
JP2019070983A (ja) * 2017-10-11 2019-05-09 日立オートモティブシステムズ株式会社 移動体の位置推定装置及び位置推定方法
WO2019073772A1 (ja) * 2017-10-11 2019-04-18 日立オートモティブシステムズ株式会社 移動体の位置推定装置及び位置推定方法
CN111164648A (zh) * 2017-10-11 2020-05-15 日立汽车系统株式会社 移动体的位置推断装置及位置推断方法
US11151729B2 (en) 2017-10-11 2021-10-19 Hitachi Automotive Systems, Ltd. Mobile entity position estimation device and position estimation method
CN111164648B (zh) * 2017-10-11 2023-06-13 日立安斯泰莫株式会社 移动体的位置推断装置及位置推断方法
JP2020107938A (ja) * 2018-12-26 2020-07-09 株式会社デンソーアイティーラボラトリ カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム
JP7137464B2 (ja) 2018-12-26 2022-09-14 株式会社デンソーアイティーラボラトリ カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム
JP2020198074A (ja) * 2019-05-29 2020-12-10 株式会社デンソーテン 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
JP7445415B2 (ja) 2019-05-29 2024-03-07 株式会社デンソーテン 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法

Also Published As

Publication number Publication date
JP6151535B2 (ja) 2017-06-21

Similar Documents

Publication Publication Date Title
JP6151535B2 (ja) パラメータ取得装置、パラメータ取得方法及びプログラム
JP5341789B2 (ja) パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
KR101265667B1 (ko) 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
JP5455124B2 (ja) カメラ姿勢パラメータ推定装置
JP4636346B2 (ja) 車載カメラの校正装置、方法、及びプログラム
KR101617956B1 (ko) 화상 처리 장치, 화상 처리 방법 및 기록 매체
JP5959311B2 (ja) データ導出装置、及び、データ導出方法
JP2017078923A (ja) キャリブレーション装置、キャリブレーション方法、及び、キャリブレーションプログラム
JP6392693B2 (ja) 車両周辺監視装置、車両周辺監視方法、及びプログラム
JP2011182236A (ja) カメラキャリブレーション装置
JP2009288152A (ja) 車載カメラのキャリブレーション方法
CN107249934B (zh) 无失真显示车辆周边环境的方法和装置
KR101573576B1 (ko) Avm 시스템의 이미지 처리 방법
US20210004614A1 (en) Surround View System Having an Adapted Projection Surface
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
JP2008085710A (ja) 運転支援システム
JP2010287029A (ja) 周辺表示装置
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
US20170024851A1 (en) Panel transform
US20160037154A1 (en) Image processing system and method
JP6776440B2 (ja) 動力車両を運転する際に動力車両のドライバーを支援する方法、ドライバー支援システム及び動力車両
JP5173551B2 (ja) 車両周辺監視装置およびこれに適用されるカメラ取り付け位置・姿勢情報の設定修正方法
JP5915268B2 (ja) パラメータ算出方法、情報処理装置及びプログラム
KR20180021822A (ko) 후방 교차 교통-퀵 룩스
KR20200118073A (ko) 동적 입체 캘리브레이션을 위한 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170525

R150 Certificate of patent or registration of utility model

Ref document number: 6151535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250