JP2018116620A - 画像処理装置、画像処理システムおよび画像処理方法 - Google Patents
画像処理装置、画像処理システムおよび画像処理方法 Download PDFInfo
- Publication number
- JP2018116620A JP2018116620A JP2017008395A JP2017008395A JP2018116620A JP 2018116620 A JP2018116620 A JP 2018116620A JP 2017008395 A JP2017008395 A JP 2017008395A JP 2017008395 A JP2017008395 A JP 2017008395A JP 2018116620 A JP2018116620 A JP 2018116620A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- region
- image
- feature amount
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】作業負荷を低減する画像処理装置、画像処理システムおよび画像処理方法を提供すること。【解決手段】実施形態に係る画像処理装置は、取得部と、算出部と、検出部とを備える。取得部は、車両の外部に配置されたマーカーを車載カメラによって撮影して得られた画像を取得する。算出部は、画像中に設定された第1領域の第1特徴点における第1局所特徴量と、画像中に設定され、かつ第1領域とは異なる第2領域の第2特徴点における第2局所特徴量とを算出する。検出部は、第1局所特徴量と第2局所特徴量とが最も類似する各特徴点を対応点として抽出し、対応点に基づいて第1領域および第2領域からマーカーを検出する。【選択図】図1
Description
開示の実施形態は、画像処理装置、画像処理システムおよび画像処理方法に関する。
従来、車載カメラによって取得された画像を合成して車両の周囲の状態をモニタに表示するシステムが知られている(例えば特許文献1参照)。
このようなシステムでは、車載カメラの個体差や取り付け位置のわずかな誤差等によって合成画像の合成位置にずれが生じることがあるため、ずれを補正するキャリブレーション処理が行われる。
キャリブレーション処理では、キャリブレーション用のマーカーを車載カメラで撮影して得られた画像に対して、マーカーの特徴を示す特徴量を用いて探索を行い、画像からマーカーを検出している。マーカーの特徴を示す特徴量は、予め設定され、システムに記憶されている。
しかしながら、上記システムでは、使用するマーカー毎にマーカーの特徴量を設定し、マーカーの特徴量を予めシステムに記憶させなければならず、準備作業が煩雑化するので、作業負荷が大きくなる問題点がある。
実施形態の一態様は、上記に鑑みてなされたものであって、作業負荷を低減することを目的とする。
実施形態の一態様に係る画像処理装置は、取得部と、算出部と、検出部とを備える。取得部は、車両の外部に配置されたマーカーを車載カメラによって撮影して得られた画像を取得する。算出部は、画像中に設定された第1領域の第1特徴点における第1局所特徴量と、画像中に設定され、かつ第1領域とは異なる第2領域の第2特徴点における第2局所特徴量とを算出する。検出部は、第1局所特徴量と第2局所特徴量とが最も類似する各特徴点を対応点として抽出し、対応点に基づいて第1領域および第2領域からマーカーを検出する。
実施形態の一態様によれば、作業負荷を低減することができる。
以下、添付図面を参照して、本願の開示する画像処理装置、画像処理システムおよび画像処理方法を説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
実施形態に係る画像処理装置は、複数の車載カメラ(以下、カメラという。)によって撮影することで得られた画像を合成することで、車両の周囲の状態をモニタに表示する全周囲モニタシステムに搭載される。
全周囲モニタシステムでは、車載カメラの個体差や取り付け位置のわずかな誤差等による合成位置のずれを補正するキャリブレーション処理が行われる。
キャリブレーション処理は、例えば、車両工場や車両整備場で行われる。キャリブレーション処理では、まず、車両の周囲に配置されたキャリブレーション用のマーカーがカメラによって撮影され、撮影により得られた画像からマーカーが検出される。そして、検出されたマーカーが複数の画像で一致するように各カメラの設置位置や、各カメラの角度などが調整される。
本実施形態に係る画像処理装置は、以下の方法によって画像からマーカーを検出する。まず、本実施形態に係る画像処理装置におけるマーカーの検出処理の概要について、図1を参照し説明する。図1は、本実施形態に係るマーカーの検出処理の概要を説明する図である。
画像処理装置は、カメラによる撮影で得られた画像を取得すると(S1)、画像中に設定された第1領域の特徴点(以下、第1特徴点という。)における局所特徴量(以下、第1局所特徴量という。)、および画像中に設定され、第1領域とは異なる第2領域の特徴点(以下、第2特徴点という。)における局所特徴量(以下、第2局所特徴量という。)を算出する(S2)。
特徴点は、例えば、着目する画素の周囲の輝度の差が閾値以上である画素である。また、局所特徴量は、例えば、濃淡の変化である。
局所特徴量としては、例えば、SIFT(Scale Invariant Feature Transformation)や、SURF(Speed Up Robustness Features)を用いることができる。
第1領域および第2領域は、画像中に予め設定された領域であり、画像の一部を含む領域である。第1領域および第2領域は、カメラによって2つのマーカーを含むように撮影された場合に、第1領域に一方のマーカーが映り、第2領域にもう一方のマーカーが映るように設定されている。なお、以下において、第1領域と第2領域とは、同じ画像中に設定された領域を意味するものとする。
そして、画像処理装置は、第1局所特徴量と第2局所特徴量とを比較し、第1局所特徴量と第2局所特徴量とが最も類似する第1特徴点と第2特徴点とを対応点として抽出し、対応点に基づいて第1領域および第2領域からマーカーを検出する(S3)。
例えば、第1領域で対応点となる第1特徴点の集合が第1領域におけるマーカーとして検出される。また、同様に、第2領域からマーカーが検出される。
このように、全周囲モニタシステムでは、第1領域の第1局所特徴量と第2領域の第2局所特徴量とを比較することで、カメラによる撮影によって得られた画像からマーカーを検出することができる。すなわち、マーカーの特徴量を設定せず、マーカーの特徴量を全周囲システムに記憶させずに、画像からマーカーを検出することができる。そのため、開発コストを抑制することができる。
次に、実施形態に係る全周囲モニタシステム(画像処理システム)1について図2を参照し説明する。図2は、全周囲モニタシステム1の概略ブロック図である。
全周囲モニタシステム1は、複数のカメラ2と、画像処理装置3と、モニタ4を備える。全周囲モニタシステム1では、各カメラ2によって得られた画像を合成することで、例えば、車両10(図3参照)を上方から見た画像をモニタ4に表示することができる。
カメラ2は、例えば、CCD(Charge Coupled Device)や、CMOS(Complementary Metal Oxide Semiconductor)など電子的な画像を取得する撮像素子を備える。ここでは、第1カメラ2a、第2カメラ2b、第3カメラ2cおよび第4カメラ2dの4つのカメラ2が設けられる。
図3に示すように、第1カメラ2aは車両10の前端中央に設けられ、第2カメラ2bは車両10の後端中央に設けられ、第3カメラ2cは車両10の左側のサイドミラーハウジング11aに設けられ、第4カメラ2dは車両10の右側のサイドミラーハウジング11bに設けられる。図3は、キャリブレーション処理を行う場合の車両10およびマーカーMの配置を示す図である。マーカーMは、同一形状のマーカーであり、1つのカメラ2によって2つのマーカーMが撮影できるように車両10の外部に配置される。なお、車両10と各マーカーMとの位置は、車両10の種類に応じて予め設定されている。
図2に戻り、画像処理装置3は、取得部5と、制御部6と、記憶部7とを備える。
取得部5は、各カメラ2による撮影で得られた画像を取得する。取得部5によって取得された画像は、記憶部7に記憶される。
制御部6は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有するマイクロコンピュータを含む。
制御部6では、CPUがROMに記憶されたプログラムを、RAMを作業領域として使用して実行することにより各機能が発揮される。
制御部6は、変形部60と、算出部61と、検出部62と、推定部63と、調整部64と、合成部65とを備える。
変形部60は、第1領域に映るマーカーMの形状と、第2領域に映るマーカーMの形状とが一致するように、第2領域の画像に変形処理を行う。第1領域および第2領域は、各カメラ2によって取得される画像毎および車両10毎に設定されている。
変形処理は、各カメラ2と各マーカーMとの位置や、各カメラ2の特性(例えば、レンズ歪)などに基づいて行われる。例えば、車両10の前方に配置された2つのマーカーMを第1カメラ2aによって撮影すると、図4に示すような画像が取得される。ここでは、車両10の左側のマーカーMが第1領域に映り、車両10の右側のマーカーMが第2領域に映るものとする。図4は、第1カメラ2aによる撮影で得られた画像を示す図である。図4(a)は、変形処理が行われる前の画像である。
第1領域では、マーカーMは左下から右上にかけて延びるように映り、第2領域では、マーカーMは右下から左上にかけて延びるように映る。このように、カメラ2とマーカーMとの位置や、カメラ2の特性などにより、同一形状のマーカーMが撮影された場合でも、第1領域に映るマーカーMの形状と第2領域に映るマーカーMの形状とが異なる。
そのため、変形部60は、カメラ2とマーカーMとの位置や、カメラ2の特性に起因するマーカーMの形状のずれを低減するために、変形処理を行う。図4に示す一例では、変形部60は、第2領域を左右反転させる変形処理を行う。図4(b)は、第2領域が左右反転された後の画像である。
変形部60は、各カメラ2による撮影で得られた各画像の第2領域に対して変形処理を行う。なお、各カメラ2から各マーカーMまでの距離が異なる場合には、各カメラ2と各マーカーMとの距離に基づいて、第2領域を拡大または縮小する変形処理が行われる。なお、変形処理は、第1領域および第2領域に行ってもよい。
算出部61は、第1領域および第2領域から第1局所特徴量および第2局所特徴量を算出する。なお、算出部61は、変形処理が行われた第2領域から第2局所特徴量を算出する。
具体的には、算出部61は、第1領域から第1特徴点を抽出し、第1特徴点における第1局所特徴量を算出する。また、算出部61は、第2領域から第2特徴点を抽出し、第2特徴点における第2局所特徴量を算出する。算出部61は、第1領域の各第1特徴点における第1局所特徴量および第2領域の各第2特徴点における第2局所特徴量を算出する。算出部61は、各画像に対し第1局所特徴量および第2局所特徴量を算出する。
検出部62は、第1局所特徴量と第2局所特徴量とを比較することで、第1領域からマーカーMを検出し、第2領域からマーカーMを検出する。
具体的には、検出部62は、第1領域の或る第1特徴点における第1局所特徴量と最も類似する第2局所特徴量を第2領域から選択する。そして、検出部62は、第1特徴点と、第1特徴点に対して選択された第2特徴点とを対応点として抽出する。
検出部62は、各第1特徴点における第1局所特徴量に対し最も類似する第2局所特徴量を選択し、複数の対応点を抽出する。
そして、検出部62は、第1領域および第2領域に各対応点をプロットし、マップを作成する。検出部62は、例えば、第1領域および第2領域において、図5に示すように各領域の左下隅を原点とする座標軸(x軸、y軸)を設定し、各対応点をプロットする。図5は、第1領域および第2領域に対応点をプロットした一例を示す図である。図5(a)は、第1領域に対応点をプロットした図である。また、図5(b)は、第2領域に対応点をプロットした図である。なお、図5(b)の第2領域は、変形部60によって左右反転されているものとする。また、図5では第1領域および第2領域において、対応点に同じ符号を付している。
検出部62は、抽出した対応点において、基準点、例えば、原点からの距離の比が他の対応点の比に対して乖離している場合には、乖離が大きい対応点を除外してプロットする。例えば、図5において、第1領域および第2領域でF点となる対応点は、他の対応点であるA〜E点と比較して、原点からの比が大きく異なる。検出部62は、このような点を対応点から除外してプロットする。
検出部62は、例えば、各領域の対応点に対して、基準点からの距離を算出し、各対応点における距離の比を算出する。そして、各比が予め設定された所定比よりも大きい対応点を除外する。すなわち、検出部62は、比が所定比以下の対応点をプロットする。
このように、各対応点を各領域にプロットすることで、各領域でマーカーMの形状が識別可能となる。検出部62は、作成したマップに基づき、プロットされた対応点を線分で結んで作成される形状をマーカーMとして検出する。検出部62は、第1領域からマーカーMを検出し、また第2領域からマーカーMを検出する。
なお、検出部62は、検出したマーカーMの形状を比較することで、検出したマーカーMの形状が一致しているかどうか判定してもよい。例えば、検出部62は、検出したマーカーMが設定された所定範囲で近似する場合に、マーカーMとして検出する。これにより、マーカーMをより正確に検出することができる。
推定部63は、検出部62によって検出したマーカーMとなる対応点から、予め設定されたマーカー位置情報との視差を算出する。なお、視差は、第1領域と第2領域とにおいてそれぞれ算出される。推定部63は、第1領域における視差と、第2領域における視差との差が最も小さい対応点を抽出し、カメラパラメータ(カメラ2の設置位置、カメラ2の角度など)を推定する。カメラパラメータは、記憶部7に記憶される。
調整部64は、推定されたカメラパラメータを用いて、カメラ2の設置位置、カメラ2の角度などを調整し、キャリブレーション処理を行う。
合成部65は、例えば、車両10の周囲をモニタ4に表示する全周囲モニタスイッチ(不図示)がONとなった場合に、各カメラ2による撮影で得られた画像を合成し、合成した画像をモニタ4に表示させる。上記したキャリブレーション処理が行われていることで、カメラ2の個体差や取り付け位置の誤差等による合成位置のずれがない画像をモニタ4に表示することができる。
記憶部7は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、または、HDD(Hard Disk Drive)、光ディスク等の記憶装置である。
次に、本実施形態のマーカーMの検出処理について図6を参照し説明する。図6は、本実施形態のマーカーMの検出処理を説明するフローチャートである。
画像処理装置3は、各カメラ2によって撮影されたマーカーMを含む画像を取得し(S10)、各画像の第2領域に変形処理を行う(S11)。
画像処理装置3は、第1領域から第1局所特徴量を算出し、変形処理が行われた第2領域から第2局所特徴量を算出し(S12)、第1局所特徴量と第2局所特徴量とが最も類似する第1特徴点と第2特徴点とを対応点として抽出する(S13)。
画像処理装置3は、対応点をプロットしてマップを作成し(S14)、各領域からマーカーMを検出する(S15)。
画像処理装置3は、各画像からマーカーMを検出した場合(S16;Yes)には処理を終了し、マーカーMを検出していない画像がある場合(S16;No)には、マーカーMを検出していない画像からマーカーMを検出する(S12〜S15)。
次に本実施形態の効果について説明する。
第1領域の第1特徴点における第1局所特徴量と、第2領域の第2特徴点における第2局所特徴量とを算出し、第1局所特徴量と第2局所特徴量とが最も類似する各特徴点を対応点として抽出し、対応点に基づいて第1領域および第2領域からマーカーMを検出する。
これにより、マーカーMの特徴量を設定し、マーカーMの特徴量を予めシステムに記憶させることなく、カメラ2による撮影で得られた画像からマーカーMを検出することができる。そのため、キャリブレーション処理を実行させるための準備作業が煩雑化することを抑制することができ、作業負荷を低減することができる。また、汎用のマーカーMを用いてキャリブレーション処理を行うことができ、車両10ごとにマーカーMを用意する必要がなく、作業負荷を低減し、コストを抑制することができる。
また、第1領域および第2領域から各局所特徴量を算出し、対応点を抽出することで、画像全体で局所特徴量を算出する場合よりも、マーカーMの検出を素早く行うことができる。
また、対応点をプロットしたマップからマーカーMを検出することで、マーカーMを正確に検出することができる。
また、各領域の対応点に対して、基準点からの距離を算出し、各対応点における距離の比を算出し、比が所定比よりも大きい対応点を除外し、比が所定比以下の対応点をプロットし、マーカーMを検出する。これにより、マーカーMを正確に検出することができる。
また、カメラ2とマーカーMとの位置およびカメラ2の特性に起因するマーカーMの形状のずれを低減するように、第2領域に変形処理を行うことで、マーカーMを正確に検出することができる。
次に、上記実施形態の変形例について説明する。
上記実施形態では、対応点をプロットしてマップを作成したが、これに限られることはない。例えば、対応点を表として記憶し、マーカーMを検出してもよい。
また、検出部62は、各領域の対応点に対して、基準点、例えば、原点からの距離の差を算出してもよい。そして、差が予め設定された所定差よりも大きい対応点を除外してもよい。
また、検出部62は、第1領域および第2領域において、マーカーMが映る基準位置を記憶させて、記憶させた基準位置とのずれが予め設定された所定値以下の対応点に基づいてマーカーMを検出してもよい。
すなわち、検出部62は、或る基準位置(基準点)とのずれが予め設定された所定値(所定比、所定差)以下となる対応点に基づいて、マーカーMを検出する。これにより、マーカーMを正確に検出することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 全周囲モニタシステム(画像処理システム)
2 カメラ(車載カメラ)
3 画像処理装置
4 モニタ
5 取得部
6 制御部
7 記憶部
10 車両
60 変形部
61 算出部
62 検出部
63 推定部
64 調整部
2 カメラ(車載カメラ)
3 画像処理装置
4 モニタ
5 取得部
6 制御部
7 記憶部
10 車両
60 変形部
61 算出部
62 検出部
63 推定部
64 調整部
Claims (6)
- 車両の外部に配置されたマーカーを車載カメラによって撮影して得られた画像を取得する取得部と、
前記画像中に設定された第1領域の第1特徴点における第1局所特徴量と、前記画像中に設定され、かつ前記第1領域とは異なる第2領域の第2特徴点における第2局所特徴量とを算出する算出部と、
前記第1局所特徴量と前記第2局所特徴量とが最も類似する各特徴点を対応点として抽出し、前記対応点に基づいて前記第1領域および前記第2領域から前記マーカーを検出する検出部と
を備えることを特徴とする画像処理装置。 - 前記検出部は、
前記第1領域および前記第2領域における前記マーカーの基準位置とのずれが所定値以下となる前記対応点に基づいて前記第1領域および前記第2領域から前記マーカーを検出すること
を特徴とする請求項1に記載の画像処理装置。 - 前記車載カメラと前記マーカーとの位置および前記車載カメラの特性に起因する前記マーカーの形状のずれを低減するように、前記第2領域の画像に変形処理を行う変形部
をさらに備え、
前記算出部は、
前記変形処理が行われた前記第2領域の前記第2特徴点における前記第2局所特徴量を算出すること
を特徴とする請求項1または2に記載の画像処理装置。 - 前記検出部は、
前記対応点をプロットしたマップに基づいて前記第1領域および前記第2領域から前記マーカーを検出すること
を特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。 - 車両の外部に配置されたマーカーを撮影する車載カメラと、
前記車載カメラによって撮影して得られた画像を取得する取得部と、
前記画像中に設定された第1領域の第1特徴点における第1局所特徴量と、前記画像中に設定され、かつ前記第1領域とは異なる第2領域の第2特徴点における第2局所特徴量とを算出する算出部と、
前記第1局所特徴量と前記第2局所特徴量とが最も類似する各特徴点を対応点として抽出し、前記対応点に基づいて前記第1領域および前記第2領域から前記マーカーを検出する検出部と
を備えることを特徴とする画像処理システム。 - 車両の外部に配置されたマーカーを車載カメラによって撮影して得られた画像を取得する取得工程と、
前記画像中に設定された第1領域の第1特徴点における第1局所特徴量と、前記画像中に設定され、かつ前記第1領域とは異なる第2領域の第2特徴点における第2局所特徴量とを算出する算出工程と、
前記第1局所特徴量と前記第2局所特徴量とが最も類似する各特徴点を対応点として抽出し、前記対応点に基づいて前記第1領域および前記第2領域から前記マーカーを検出する検出工程と
を含むことを特徴とする画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017008395A JP2018116620A (ja) | 2017-01-20 | 2017-01-20 | 画像処理装置、画像処理システムおよび画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017008395A JP2018116620A (ja) | 2017-01-20 | 2017-01-20 | 画像処理装置、画像処理システムおよび画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018116620A true JP2018116620A (ja) | 2018-07-26 |
Family
ID=62985552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017008395A Pending JP2018116620A (ja) | 2017-01-20 | 2017-01-20 | 画像処理装置、画像処理システムおよび画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018116620A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019244537A1 (ja) | 2018-06-20 | 2019-12-26 | クラリオン株式会社 | 駐車支援システム及び駐車支援装置 |
-
2017
- 2017-01-20 JP JP2017008395A patent/JP2018116620A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019244537A1 (ja) | 2018-06-20 | 2019-12-26 | クラリオン株式会社 | 駐車支援システム及び駐車支援装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10659762B2 (en) | Stereo camera | |
JP6970577B2 (ja) | 周辺監視装置および周辺監視方法 | |
JP6975003B2 (ja) | 周辺監視装置およびその校正方法 | |
JP4556798B2 (ja) | 画像処理装置 | |
JP5293131B2 (ja) | 車両用複眼距離測定装置及び複眼距離測定方法 | |
JP5365387B2 (ja) | 位置検出装置 | |
JP2013164351A (ja) | ステレオ視差算出装置 | |
JP6970568B2 (ja) | 車両の周辺監視装置と周辺監視方法 | |
US20210335010A1 (en) | Calibration method and calibration apparatus | |
US10417507B2 (en) | Freespace detection apparatus and freespace detection method | |
JP2004354256A (ja) | キャリブレーションずれ検出装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム | |
US20230260159A1 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
US10783646B2 (en) | Method for detecting motion in a video sequence | |
JP2018116620A (ja) | 画像処理装置、画像処理システムおよび画像処理方法 | |
US10726528B2 (en) | Image processing apparatus and image processing method for image picked up by two cameras | |
JP2008224323A (ja) | ステレオ写真計測装置、ステレオ写真計測方法及びステレオ写真計測用プログラム | |
WO2015182771A1 (ja) | 撮像装置、画像処理装置、画像処理方法およびコンピュータプログラム | |
JP6241083B2 (ja) | 撮像装置及び視差検出方法 | |
JP6739367B2 (ja) | カメラ装置 | |
JP6855233B2 (ja) | 障害物検出装置および障害物検出方法 | |
JP3994954B2 (ja) | 物体検出装置及び物体検出方法 | |
JP2006155400A (ja) | 画像抽出装置 | |
JP6492603B2 (ja) | 画像処理装置、システム、画像処理方法、およびプログラム | |
JP2019066327A (ja) | 車両の周辺監視装置および周辺監視方法 | |
JP2007317128A (ja) | 移動距離検出装置及び移動距離検出方法 |