JP2008102620A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2008102620A JP2008102620A JP2006282848A JP2006282848A JP2008102620A JP 2008102620 A JP2008102620 A JP 2008102620A JP 2006282848 A JP2006282848 A JP 2006282848A JP 2006282848 A JP2006282848 A JP 2006282848A JP 2008102620 A JP2008102620 A JP 2008102620A
- Authority
- JP
- Japan
- Prior art keywords
- image
- small
- images
- field
- wide
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 73
- 238000003384 imaging method Methods 0.000 claims description 27
- 238000012937 correction Methods 0.000 abstract description 9
- 230000000007 visual effect Effects 0.000 abstract description 9
- 238000000034 method Methods 0.000 description 36
- 230000008569 process Effects 0.000 description 26
- 230000000875 corresponding effect Effects 0.000 description 22
- 239000011159 matrix material Substances 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 238000012806 monitoring device Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000003702 image correction Methods 0.000 description 6
- 238000003709 image segmentation Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
Abstract
【課題】 広角画像を複数の視線方向軸に対して垂直な平面に投影することよって広角画像の歪みを低減することができる画像処理装置を提供する。
【解決手段】 広角画像を複数の視線方向軸に基づいて複数の小視野画像に分割し、分割された小視野画像を視線方向軸に垂直な平面に対して投影することにより、小視野画像の歪みを補正する画像・分割補正部22を備えている。
【選択図】 図1
【解決手段】 広角画像を複数の視線方向軸に基づいて複数の小視野画像に分割し、分割された小視野画像を視線方向軸に垂直な平面に対して投影することにより、小視野画像の歪みを補正する画像・分割補正部22を備えている。
【選択図】 図1
Description
本発明は、広角画像を処理する画像処理装置に関するものである。
従来より、重複した撮像範囲を有した2次元画像の情報から、重複撮像範囲にある物体の3次元位置情報を得る(ステレオ視処理)技術が知られている。特許文献1には、魚眼カメラから得られる2つの視差画像を用いて、広い視野範囲で撮像対象物のステレオ視処理を行う装置が記載されている。
国際公開WO97/31484号パンフレット
ステレオ視処理では、一般的に、撮像された複数の2次元画像の重複範囲を検出するマッチング処理と、マッチングされた重複範囲に対する3次元位置情報の演算処理が必要になる。特許文献1で使用されている広角レンズは、その撮像画像においてレンズの特性に起因した歪みを生じる。例えば、魚眼レンズから得られる円形の広角画像は、画像の中央部が膨らんで写る樽型歪みを有する。そのため、上記のような広角画像を用いてステレオ視をする場合、広角画像の歪みによってマッチング処理および3次元位置情報の演算処理が正しく行われないおそれがある。
本発明は、上記の事情に鑑みて為されたものであり、広角画像を複数の視線方向軸に対して垂直な平面に投影することよって広角画像の歪みを補正することが可能な画像処理装置を提供することを課題とする。
本発明に係る画像処理装置は、広角画像を複数の所定視線方向軸に基づいて複数の小視野画像に分割する画像分割手段と、前記画像分割手段によって分割された前記小視野画像を前記視線方向軸に垂直な平面に対して投影することにより、前記小視野画像の歪みを補正する画像補正手段と、を備えていることを特徴とする。本発明による画像処理装置によれば、歪みを含んだ広角画像は、複数の視線方向軸に垂直な小視野画像に分割されて補正される。これにより、広角画像の歪みを適切に低減することが可能となる。
前記画像分割手段は、隣り合う前記小視野画像が重複部を有するように前記広角画像を分割することを特徴とすることが好ましい。
重複範囲を有する広角画像を撮像する複数の撮像手段と、各撮像手段の広角画像を分割し補正して得られた小視野画像の相関性に基づいて異なる広角画像間において小視野画像を対応づけるマッチング手段と、を備えていることを特徴とすることが好ましい。
また、本発明に係る画像処理装置は、前記マッチング手段によって対応づけられた前記小視野画像の情報に基づいて前記重複範囲の3次元位置情報を導出する3次元情報導出手段を備えていることを特徴とすることが好ましい。
さらに、前記3次元情報導出手段によって導出された前記3次元位置情報に基づいて、俯瞰図を作成する画像作成手段を備えていることを特徴とすることが好ましい。
このようにすれば、ステレオ視処理のマッチング処理が、歪みの低減された小視野画像を用いて行われる。そして、ステレオ視処理の3次元情報の導出処理においては従来と同様なピンホールカメラモデルによって重複範囲の3次元位置情報が導出される。そのため、より正確なステレオ視処理が可能となる。さらに、俯瞰図の作成はより正確なステレオ視処理によって得られた3次元位置情報に基づいて行われるので、より正確な俯瞰図の作成が可能となる。
本発明の画像処理装置によれば、広角画像を複数の視線方向軸に対して垂直な平面に投影することよって広角画像の歪みを低減することが可能である。
以下、添付図面を参照して本発明の実施形態について説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図示の便宜上、図面の寸法比率は説明のものと必ずしも一致しない。
本実施形態では、本発明に係る画像処理装置を、車両に搭載される周辺監視装置に適用する。本実施の形態に係る周辺監視装置は、運転者の周辺状況認知を支援するために、車両周辺に存在する物体(人、動物、自転車など)の三次元情報(特に、物体の位置)を検出し、安全性に影響を及ぼす位置に存在する物体が存在する場合には運転者に対して注意喚起を行う。
図1〜図3を併せて参照して本実施形態に係る周辺監視装置1について説明する。図1は、本実施形態に係る周辺監視装置1の構成概要図である。図2は、本実施形態に係るカメラの配置とカメラの撮像領域を示す平面図である。図3は、カメラ13で撮像した魚眼画像の一例を示す図である。
周辺監視装置1では、4台のカメラによる各撮像画像に基づいて、各撮像画像の重複領域における物体の三次元情報を取得する。そして、周辺監視装置1では、検出した物体の位置に基づいてディスプレイ28に車両周辺の俯瞰図を表示する。そのために、周辺監視装置1は、前方カメラ11、右側方カメラ12、左側方カメラ13、後方カメラ14、車両センサ類15、ディスプレイ28、スピーカ29及び画像処理装置2を備えている。
カメラ11〜14は、広角画像を撮像する広角カメラであり、180度以上の画角を有するカメラである。本実施形態では、カメラ11〜14として魚眼画像を撮像する魚眼カメラを用いた形態を示す。カメラ11〜14は、略同一の高さ位置に配置される。図2に示すように、前方カメラ11は車両3の前方中央に配置され、後方カメラ14は車両3の後方中央に配置され、右側方カメラ12は車両3の右側方中央に配置され、左側方カメラ13は車両3の左側方中央に配置される。カメラ11〜14は、各方向を撮像し、その魚眼画像を画像信号として画像処理装置2に送信する。本実施の形態では、カメラ11〜14が特許請求の範囲に記載する撮像手段に相当する。
図2に示すように、前方カメラ11の撮像領域は、車両3の前方の領域AF,ARF,ALFである。後方カメラ14の撮像領域は、車両3の後方の領域AB,ARB,ALBである。右側方カメラ12の撮像領域は、車両3の右側方の領域AR,ARF,ARBである。左側方カメラ13の撮像領域は、車両3の左側方の領域AL,ALF,ALBである。領域ARFは前方カメラ11の撮像領域と右側方カメラ12の撮像領域との重複領域であり、領域ALFは前方カメラ11の撮像領域と左側方カメラ13の撮像領域との重複領域であり、領域ARBは後方カメラ14の撮像領域と右側方カメラ12の撮像領域との重複領域であり、領域ALBは後方カメラ14の撮像領域と左側方カメラ13の撮像領域との重複領域である。ここで、重複領域ARF,ALF,ARB,ALBは、特許請求の範囲に記載する重複範囲に相当する。この重複領域ARF,ALF,ARB,ALBについてはステレオ視による三次元情報が取得可能の領域である。それ以外の領域AF,AB,AR,ALについてはステレオ視ができない領域である。図3には、ある時刻に、左側方カメラ13で撮像した撮像領域AL,ALF,ALBに対する魚眼画像の一例を示している。魚眼画像ILOにはガードレール4と歩道が写っている。
図1を参照して説明を続けると、車速センサ類15は、車両3の位置や向きを検出するために使用されるセンサであり、車両の速度を検出する車速センサや、ステアリングの操舵角(あるいは、転舵輪の転舵角)を検出する舵角センサなどで構成される。それぞれの検出値は電気信号として画像処理装置2に送信される。
ディスプレイ28は、画像処理装置2から画像表示信号を受信すると、その画像表示信号に応じた画像を表示する。スピーカ29は、画像処理装置2から音声出力信号を受信すると、その音声出力信号に応じた音声を出力する。
画像処理装置2は、演算を行うマイクロプロセッサ、マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果などの各種データを記憶するRAM等を備え、センサ情報取込部20、処理結果記憶部21、画像分割・補正部22、対応画像推測部23、ステレオ視処理部24、仮想画像作成部26、および情報出力部27で構成されている。画像処理装置2内の各構成要素は、ハードウエア的に個別に構成されてもよいし、あるいは、共通のハードウエア上で稼働する各ソフトウエアによって構成されてもよい。これらのソフトウェアは別々のプログラム、サブルーチン等によって構成される場合もあるが、一部またはその大部分のルーチンを共有していてもよい。画像処理装置2では、カメラ11,12,13,14から各画像信号を受信するとともに、車両センサ類15から各検出信号を受信する。そして、画像処理装置2では、物体の三次元位置情報に基づいて俯瞰図画像を作成しディスプレイ28を利用して運転者に表示する。
センサ情報取込部20では、カメラ11〜14から送信された画像信号と車両センサ類15から送信された検出信号とを関連づけた画像データを取り込む。各信号から画像データへのデジタル変換は、カメラ11〜14及び車両センサ類15内で行われてもよいし、センサ情報取込部20にA/Dコンバータを設けて変換を行ってもよい。センサ情報取込部20で取り込まれた画像データは、処理結果記憶部21に格納される。
処理結果記憶部21は、RAMやフラッシュメモリ、ハードディスクなどの記憶媒体により構成される。処理結果記憶部21に格納された画像データをもとに、画像分割・補正部22、対応画像推測部23、ステレオ視処理部24、仮想画像作成部26は、各々所定の画像処理を行い、必要ならば処理結果を処理結果記憶部21に格納する。
画像分割・補正部22は、カメラ11〜14の画像データを処理結果記憶部21から取得して、それぞれの画像データを後述する論理で複数の視線方向軸に基づいて複数の小視野画像データに分割する。そして、画像分割・補正部22は、小視野画像データを各視線方向軸に垂直な平面に対して投影して補正する。補正された小視野画像データは、処理結果記憶部21に格納される。画像分割・補正部22は、特許請求の範囲に記載されている画像分割手段および画像補正手段に相当する。
対応画像推測部23は、カメラ11〜14の補正された小視野画像データを処理結果記憶部21から取得して、その小視野画像データにおいて後述する論理で相関度を算出する。そして、相関度の最も高い小視野画像データを対応づける。対応画像推測部23の処理結果は、処理結果記憶部21に格納される。対応画像推測部23は、特許請求の範囲に記載されているマッチング手段に相当する。
ステレオ視処理部24は、画像間マッチング部240と3次元情報導出部241とを備えている。ステレオ処理部24では、隣合うカメラから撮像した画像データにもとづいて、ステレオ視処理により重複範囲にある被写体の3次元位置情報が算出される。
画像間マッチング部240は、対応画像推測部23において対応づけされた小視野画像データ間の相関度から対応する画素位置を求める。画像間マッチング部240の処理結果は、3次元情報導出部241に出力される。
3次元情報導出部241は、画像間マッチング部240によって対応づけられた対応点の画素位置と画像の投影位置から対応点の3次元位置情報を求める。3次元情報導出部241の処理結果は、処理結果記憶部21に出力される。3次元情報導出部241は特許請求の範囲に記載されている3次元情報導出手段に相当する。
仮想画像作成部26は、ステレオ視処理部24が出力した3次元位置情報を処理結果記憶部21から取得して、それをもとに俯瞰図データを作成するものである。仮想画像作成部26の処理結果は、情報出力部27に出力される。画像作成部26は、特許請求の範囲に記載された画像作成手段に相当する。
情報出力部27は、仮想画像作成部26で生成された俯瞰図データを画像表示信号に変換して送信する。物体が車両3から基準距離以内に存在すると判定した場合には、車両周辺に注意を要する物体が存在することを注意喚起する画像あるいはその物体の車両からの位置を示す画像を生成し、その画像を表示するための画像表示信号もディスプレイ28に送信する。また、その場合には、車両周辺に注意を要する物体が存在することを注意喚起する音声メッセージを生成し、その音声メッセージを出力するための音声出力信号をスピーカ29に送信する。
以下、本実施形態に係る周辺監視装置1の動作を具体的に説明する。図4は、この動作の処理を示すフローチャートである。この処理は、車両3の電源がオンにされてから所定のタイミングで繰り返し実行される。例えば、カメラ11〜14の画像取得レートに同期して、取得する画像1コマごと、あるいは、数コマおきに処理を行えばよい。
最初に、センサ情報取込部20が前方カメラ11、右側方カメラ12、左側方カメラ13、後方カメラ14のそれぞれで撮影された魚眼画像と車両センサ類15が検出した車速や舵角などのセンサ情報とを取得し、処理結果記憶部21に格納する(ステップS1)。
次に、画像分割・補正部22において、カメラ11〜14で取得した魚眼画像から分割された小視野画像が生成される(ステップS2)。
このステップS2について、図5〜図7を参照してこの処理を具体的に説明する。図5および図6は、画像分割・補正処理を説明する図である。図7は、図3に示された魚眼画像に対する小視野画像の一例を示す図である。ここでは、図3に示された魚眼画像ILOに対して9本の視線方向軸を設定して、魚眼画像ILOを分割・補正するケースを考える。なお、図5〜図7においては、9本の視線方向軸のうち、3本のみが図示されている。
図5を参照すると、HLは左側方カメラ13のカメラ中心OCを中心として、左側方カメラ13の撮像面側に展開される半球面である。視線方向軸は、この半球面の半径方向に設定される。CLF、CL、CLBは、視線方向軸の例を示す。CLF、CLBは、視線方向軸CLを含む水平面上で、視線方向軸CLを基準としてカメラ中心Oを基点に±45度の向きに伸びる視線方向軸である。残り6本の視線方向軸は、図示されていないが視線方向軸CLを基軸として上下および斜め±45度方向に対して設定されている。SLF,SL,SLBは、小視野画像が投影される仮想スクリーンの例を示す。仮想スクリーンSLF,SL,SLBは、それぞれ図6に示されるようなパラメータによって、設定される。ここで、ΩHは投影横視野角度、ΩVは投影縦視野角度、Zvはカメラ中心OCから仮想スクリーンまでの距離、Wは仮想スクリーン(小視野画像)の横幅をそれぞれ示す。
図7は、図3に示された魚眼画像ILOを図5の仮想スクリーンSLF、SL,SLBに投影して得られた小視野画像の例である。この小視野画像例は、投影横視野角度ΩH=90度、投影縦視野角度ΩV=70度の場合を示している。この場合、小視野画像ILFとIL、ILとILBはそれぞれ45度の視野範囲を重複する重複部を有する。この重複部の領域は、認識したい物体の種類や大きさに応じて可変であってもよい。また、投影横視野角度ΩHおよび投影縦視野角度ΩVは、後述するように90度以下が望ましい。
次に、魚眼画像の像点(up,vp)を仮想スクリーン上の表示点(Xp,Yp)に投影する方法について説明する。魚眼画像の像点(up,vp)と仮想スクリーン上の表示点(Xp,Yp)との関係は(1)式のように表される。
ここで、f()は魚眼カメラの特性関数、Lは魚眼画像の半径をそれぞれ示す。パラメータ(Xse’,Yse’,Zse’)は、アフィン変換によって(2)式のように表される。
ここで、λはカメラ向き横角度、ξはカメラ向きの縦角度、ωはカメラ向き回転角度をそれぞれ示す。パラメータ(Xse,Yse,Zse)は、(3)式のように表される。
ただし、Zvは仮想スクリーンまでの距離を示し、(4)式のように表される。
したがって、(1)式右辺の逆行列を求めることによって、魚眼画像の像点(up,vp)を仮想スクリーン上の表示点(Xp,Yp)に変換することができる。
ここで、f()は魚眼カメラの特性関数、Lは魚眼画像の半径をそれぞれ示す。パラメータ(Xse’,Yse’,Zse’)は、アフィン変換によって(2)式のように表される。
ここで、λはカメラ向き横角度、ξはカメラ向きの縦角度、ωはカメラ向き回転角度をそれぞれ示す。パラメータ(Xse,Yse,Zse)は、(3)式のように表される。
ただし、Zvは仮想スクリーンまでの距離を示し、(4)式のように表される。
したがって、(1)式右辺の逆行列を求めることによって、魚眼画像の像点(up,vp)を仮想スクリーン上の表示点(Xp,Yp)に変換することができる。
図4を参照するとステップS2の処理に引き続いて、対応画像推測部23においてステップS2で得られた小視野画像のうち隣合うカメラから得られた小視野画像間で相関度が算出され、相関度が最も高い小視野画像対の関連づけが行われる(ステップS3)。
このステップS3について、図8および図9を用いて具体的に説明する。図8および図9は異なるカメラによって得られた魚眼画像と9枚に分割された小視野画像例である。図8の小視野画像Uimg[1]に対して図9の小視野画像Dimg[1]〜Dimg[9]の相関度をそれぞれ算出し、相関度がもっとも高いDimg[1]をUimg[1]に関連付ける。これをUimg[2]からUimg[9]までに対して実施する。図8および図9に示された例では、Uimg[I]とDimg[I](I=1,2,・・・,9)が関連付けられる。この相関度を求める手法としては、例えば差分総和法や正規化相関法などのパターンマッチング手法を用いればよい。
図4を参照するとステップS3の処理に引き続いて、画像間マッチング部240においてステップS2で得られた小視野画像について、輪郭(エッジ)が抽出される(ステップS4)。エッジの抽出おいては、視差が発生する方向のエッジのみが行われる。例えば、上下に設置されたカメラでは、横方向のエッジが抽出される。同様に、左右方向のステレオ視であれば縦方向のエッジが抽出され、斜め方向であれば、視差が発生する斜め方向のエッジが抽出される。このエッジ抽出処理としては、既知の各種エッジ抽出手法(Sobelフィルタや方向差分等)を用いればよい。
続いて、ステップS3で対応付けられた小視野画像対のうちステレオ視処理対象とするものが選択される(ステップS5、ステップS6)。そして、ステップS5、S6において得られた小視野画像対に対してエピポーラ極線が求められる(ステップS7)。エピポーラ極線は、小視野画像対の間で対応点を探索するための探索点を絞るために導出される。図10は、エピポーラ極線を説明する図である。Uimg[I]およびDimg[J]は、P(X,Y,Z)に存在する対象物を二つのカメラから撮像したときの画像を示し、ステップS5およびステップS6において得られた小視野画像対に対応するものとする。P1(X1,Y1)およびP2(X2,Y2)は、それぞれP(X,Y,Z)に対する画像Uimg[I]およびDimg[J]内の座標を示す。E1およびE2は、それぞれUimg[I]およびDimg[J]内に投影された互いのエピポーラ極線を示す。エピポーラ極線上の点は、(5)式のように表される。
ここで、Uimg[I]およびDimg[J]は小視野画像であるのでピンホールカメラで撮像された画像と見立てることができる。よって、(5)式のF行列は、既知の位置情報を用いて導出可能なパラメータである。このF行列については、処理の事前に導出しておいてもよい。
ここで、Uimg[I]およびDimg[J]は小視野画像であるのでピンホールカメラで撮像された画像と見立てることができる。よって、(5)式のF行列は、既知の位置情報を用いて導出可能なパラメータである。このF行列については、処理の事前に導出しておいてもよい。
図4を参照して処理の説明に戻ると、ステップS7の処理に引き続いて、Uimg[I]のエピポーラ極線上の小領域を走査してエッジを含むかどうかを判定する(ステップS8)。小領域のサイズは、例えば、3×3画素や5×5画素などであり、カメラの解像度等に合わせてサイズを変更してもよい。エッジを含まない場合には、後述するステップS12に処理が移行する。エッジを含む場合には、Dimg[J]のエピポーラ極線E2上を走査して、Uimg[I]で設定された小領域と最も相関度の高い小領域が探索されて、関連付けられる(ステップS9)。この相関度を求める手法としては、例えば差分総和法や正規化相関法などのパターンマッチング手法を用いればよい。図11は、エピポーラ極線上の対応点探索を説明する図である。Siは、Uimg[I]に対して設定された小領域であり、SjはDimg[J]のエピポーラ極線E2上を走査して探索された小領域である。
図4を参照して処理の説明に戻ると、3次元情報導出部241においてステップS9で関連付けられた小領域の対応点に対して3次元位置座標が算出される(ステップS10)。図10を参照すると、対象物の位置P(X,Y,Z)と小視野画像Uimg[I]およびDimg[J]内の座標P1(X1,Y1)およびP2(X2,Y2)との関係は、(6)式および(7)式のように表される。
ここで、H1は射影行列を示す。また、P1行列およびP2行列は、それぞれUimg[I]とDimg[J]とを撮像したカメラをピンホールカメラと見立てて得られるカメラパラメータである。P1行列およびP2行列については、処理の事前に導出しておいてもよい。
ここで、H1は射影行列を示す。また、P1行列およびP2行列は、それぞれUimg[I]とDimg[J]とを撮像したカメラをピンホールカメラと見立てて得られるカメラパラメータである。P1行列およびP2行列については、処理の事前に導出しておいてもよい。
(6)式および(7)式より、(8)式が導かれる。
(8)式の右辺左の行列をA行列とすると、Aの逆行列を求めることにより、対象物の位置P(X,Y,Z)は(9)式によって求められる。
ステップS10に引き続いて、ステップS10で得られた3次元位置情報と対応点情報とを魚眼画像の画素に関連づけて処理結果記憶部21に記録する(ステップS11)。対応点情報とは、例えば相関度やUimg[I]およびDimg[J]内の座標値や対応点が存在したかどうかを示すフラグなどである。
(8)式の右辺左の行列をA行列とすると、Aの逆行列を求めることにより、対象物の位置P(X,Y,Z)は(9)式によって求められる。
ステップS10に引き続いて、ステップS10で得られた3次元位置情報と対応点情報とを魚眼画像の画素に関連づけて処理結果記憶部21に記録する(ステップS11)。対応点情報とは、例えば相関度やUimg[I]およびDimg[J]内の座標値や対応点が存在したかどうかを示すフラグなどである。
次に、小視野画像Uimg[I]のエッジの全ての構成点について3次元位置情報の算出が終了したかを判定する(ステップS12)。終了していない場合には、ステップS13へ移行して、次のエッジ構成点についてステップS8〜S12の処理を行うことにより、小視野画像Uimg[I]内の全エッジについて3次元位置情報の算出を行う。全ての構成点について算出が終了した場合には、ステップS14に処理が移行する。
ステップS12で全エッジについて3次元位置情報の算出を終了した場合には、すべての小視野画像Uimg[I]について3次元位置情報の算出が終了したかを判定する(ステップS14)。終了していない場合には、ステップS15へ移行して、次の小視野画像についてステップS6〜S14の処理を行うことにより、分割されたすべての小視野画像について3次元位置情報の算出を行う。
ステップS14ですべての小視野画像について3次元位置情報の算出を終了した場合には、3次元位置情報の重複部の調整を行う(ステップS16)。すなわち、魚眼画像を小視野画像に分割する際に、小視野画像間で重複する範囲を有している場合には、ステップS11で画素に関連づけられた相関度を参照して、最も大きな相関度に関連づけられた3次元位置情報を採用する。
上記ステップS1〜ステップS16までの動作説明は、2つのカメラと1つのステレオ視領域(2つのカメラの撮像範囲の重複領域)に対して述べられている。図2に記載されたステレオ視領域は4つ存在するが、カメラの組合せとそのステレオ視領域を変えることでステップS1〜ステップS16によって同様に処理される。
空間位置情報を導出したら、ステップS17へと移行し、仮想画像作成部26により、エレベーションマップを作成する。このエレベーションマップは、車両3の周辺を上から見た俯瞰図に対応したものであり、図12に示されるように、等間隔の格子で区切られたマス内に高さ情報E(x,y)が記録されたものである。高さ情報に加えて、エッジ画素の位置、輝度・色情報等も合わせて記録される。図13は、エレベーションマップから求められた俯瞰図の例である。車両3の周囲に、障害物として三角コーン50、樹木51、側溝52、ガードレール53が存在している。ここで、添字sを付した50s、51s、53sは、それぞれの障害物により死角となっている影を表している。
その後、情報出力部23が求められた俯瞰図に対する表示信号をディスプレイ28に送信して、ディスプレイ28が俯瞰図を表示する。また、障害物と車両3との距離が基準距離以下の場合には、音声メッセージを生成し、その音声メッセージを出力するための音声出力信号をスピーカ29に送信する。
以上のように、本実施形態に係る周辺監視装置1によれば、画像分割・補正部22は、魚眼画像ILOを撮像面側に展開される半球面HLの半径方向に伸びる視線軸CLF,CL,CLBに基づいて複数の小視野画像ILF,IL,ILBに分割する。また、画像分割・補正部22は、小視野画像ILF,IL,ILBを視線方向軸CLF,CL,CLBに垂直な仮想スクリーンSLF,SL、SLBに対して投影することにより歪みを補正する。仮想スクリーンSLF,SL、SLBは、半球面HL(魚眼画像ILOの射影変換元の平面)に近い平面で構成されているので、魚眼画像ILOの歪みを適切に低減できる。
また、画像間マッチング部240は、対応画像推測部23において対応付けられた小視野画像対をもとに画像間マッチング処理を行う。そして、3次元情報導出部241は、画像間マッチング部240で対応付けられた画素に対してピンホールカメラモデルによって3次元位置情報を導出する。そのため、ステレオ視処理部24においてより正確な3次元情報の導出が可能となる。
さらに、仮想画像作成部26は、ステレオ視処理部24のステレオ視処理によって導出された3次元情報をもとに画像作成を行う。そのため、仮想画像作成部26においてより正確な俯瞰図の作成が可能となる。
図14は、図3の魚眼画像ILOの全画像を分割せずに図5に示された仮想スクリーンSLに投影した際の投影画像を示す図である。(a)は投影視野角度ΩH=30度、(b)はΩH=60度、(c)はΩH=90度、(d)はΩH=120度、(e)はΩH=150度、(f)はΩH=180度、の場合の投影画像をそれぞれ示している。図14を参照すると、ΩHが増大して魚眼レンズの画角(180度)に近づくにつれて、投影画像の歪みや違和感が大きくなることが確認される。これに対して、本発明に係る画像処理装置2は、魚眼画像を視線方向軸に基づいて分割して投影するので、魚眼画像の全画像を図14(f)に示されるような大きな歪みを含まずに適切に補正できる。
なお、上述した実施形態は本発明に係る画像処理装置の一例を示すものである。本発明に係る画像処理装置は、上記実施形態に限られるものではなく、各請求項に記載した要旨を変更しないように上記実施形態を変形したものであってもよい。
1…周辺監視装置、2…画像処理装置、3…車両、11…前方カメラ、12…右側方カメラ、13…左側方カメラ、14…後方カメラ、15…車両センサ類、20…センサ情報取込部、21…処理結果記憶部、22…画像分割・補正部、23…対応画像推測部、24…ステレオ視処理部、26…仮想画像作成部、27…情報出力部、28…ディスプレイ、4、40〜46…ガードレール、50…三角コーン、51…樹木、52…側溝、53…ガードレール、240…画像間マッチング部、241…3次元情報導出部。
Claims (5)
- 広角画像を複数の視線方向軸に基づいて複数の小視野画像に分割する画像分割手段と、
前記画像分割手段によって分割された前記小視野画像を前記視線方向軸に垂直な平面に対して投影することにより、前記小視野画像の歪みを補正する画像補正手段と、
を備えていることを特徴とする画像処理装置。 - 前記画像分割手段は、隣り合う前記小視野画像が重複部を有するように前記広角画像を分割することを特徴とする請求項1に記載の画像処理装置。
- 重複範囲を有する広角画像を撮像する複数の撮像手段と、
各撮像手段の広角画像を分割し補正して得られた小視野画像の相関性に基づいて異なる広角画像間において小視野画像を対応づけるマッチング手段と、
を備えていることを特徴とする請求項1または2に記載の画像処理装置。 - 前記マッチング手段によって対応づけられた前記小視野画像の情報に基づいて前記重複範囲の3次元位置情報を導出する3次元情報導出手段を備えていることを特徴とする請求項3に記載の画像処理装置。
- 前記3次元情報導出手段によって導出された前記3次元位置情報に基づいて俯瞰図を作成する画像作成手段を備えていることを特徴とする請求項4に記載の画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006282848A JP2008102620A (ja) | 2006-10-17 | 2006-10-17 | 画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006282848A JP2008102620A (ja) | 2006-10-17 | 2006-10-17 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008102620A true JP2008102620A (ja) | 2008-05-01 |
Family
ID=39436922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006282848A Pending JP2008102620A (ja) | 2006-10-17 | 2006-10-17 | 画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008102620A (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010109483A (ja) * | 2008-10-28 | 2010-05-13 | Honda Motor Co Ltd | 車両周辺表示方法 |
JP2010287029A (ja) * | 2009-06-11 | 2010-12-24 | Konica Minolta Opto Inc | 周辺表示装置 |
JP2011028634A (ja) * | 2009-07-28 | 2011-02-10 | Toshiba Alpine Automotive Technology Corp | 車両用画像表示装置 |
JP2011082598A (ja) * | 2009-10-02 | 2011-04-21 | Topcon Corp | 広角撮像装置及び測定システム |
US8421797B2 (en) | 2008-11-28 | 2013-04-16 | Yamaha Hatsudoki Kabushiki Kaisha | Remote control system and remote control apparatus |
CN103546678A (zh) * | 2012-07-09 | 2014-01-29 | 现代自动车株式会社 | 用于校正后置摄像机的图像畸变的装置和方法 |
US8994825B2 (en) | 2011-07-28 | 2015-03-31 | Robert Bosch Gmbh | Vehicle rear view camera system and method |
JP2015172876A (ja) * | 2014-03-12 | 2015-10-01 | 株式会社デンソーアイティーラボラトリ | 車両周辺監視装置、車両周辺監視システム、及びプログラム |
JP2016535377A (ja) * | 2013-10-02 | 2016-11-10 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | 車両の周辺部を表示するための方法と装置、並びに、ドライバー・アシスタント・システム |
WO2019003910A1 (ja) * | 2017-06-27 | 2019-01-03 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
WO2020080101A1 (ja) * | 2018-10-15 | 2020-04-23 | 株式会社アルファコード | 映像処理装置、映像処理方法、及び映像処理プログラム |
US10810762B2 (en) | 2010-09-24 | 2020-10-20 | Kabushiki Kaisha Toshiba | Image processing apparatus |
US10848724B2 (en) | 2017-09-20 | 2020-11-24 | Aisin Seiki Kabushiki Kaisha | Display control device |
JP2021505979A (ja) * | 2018-06-07 | 2021-02-18 | 馭勢科技(北京)有限公司Uisee Technologies (Beijing) Ltd. | 自己位置推定と環境マップ作成を同時に行う方法及び装置 |
-
2006
- 2006-10-17 JP JP2006282848A patent/JP2008102620A/ja active Pending
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010109483A (ja) * | 2008-10-28 | 2010-05-13 | Honda Motor Co Ltd | 車両周辺表示方法 |
US8421797B2 (en) | 2008-11-28 | 2013-04-16 | Yamaha Hatsudoki Kabushiki Kaisha | Remote control system and remote control apparatus |
JP2010287029A (ja) * | 2009-06-11 | 2010-12-24 | Konica Minolta Opto Inc | 周辺表示装置 |
JP2011028634A (ja) * | 2009-07-28 | 2011-02-10 | Toshiba Alpine Automotive Technology Corp | 車両用画像表示装置 |
US9733080B2 (en) | 2009-10-02 | 2017-08-15 | Kabushiki Kaisha Topcon | Wide-angle image pickup unit and measuring device |
JP2011082598A (ja) * | 2009-10-02 | 2011-04-21 | Topcon Corp | 広角撮像装置及び測定システム |
US10810762B2 (en) | 2010-09-24 | 2020-10-20 | Kabushiki Kaisha Toshiba | Image processing apparatus |
US8994825B2 (en) | 2011-07-28 | 2015-03-31 | Robert Bosch Gmbh | Vehicle rear view camera system and method |
CN103546678A (zh) * | 2012-07-09 | 2014-01-29 | 现代自动车株式会社 | 用于校正后置摄像机的图像畸变的装置和方法 |
CN103546678B (zh) * | 2012-07-09 | 2018-01-09 | 现代自动车株式会社 | 用于校正后置摄像机的图像畸变的装置和方法 |
JP2014017802A (ja) * | 2012-07-09 | 2014-01-30 | Hyundai Motor Company Co Ltd | 後方カメラの画像歪曲補正装置及び方法 |
JP2016535377A (ja) * | 2013-10-02 | 2016-11-10 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | 車両の周辺部を表示するための方法と装置、並びに、ドライバー・アシスタント・システム |
JP2015172876A (ja) * | 2014-03-12 | 2015-10-01 | 株式会社デンソーアイティーラボラトリ | 車両周辺監視装置、車両周辺監視システム、及びプログラム |
JPWO2019003910A1 (ja) * | 2017-06-27 | 2020-04-30 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
WO2019003910A1 (ja) * | 2017-06-27 | 2019-01-03 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US11044463B2 (en) | 2017-06-27 | 2021-06-22 | Sony Corporation | Image processing device and image processing method |
JP7131554B2 (ja) | 2017-06-27 | 2022-09-06 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US10848724B2 (en) | 2017-09-20 | 2020-11-24 | Aisin Seiki Kabushiki Kaisha | Display control device |
JP2021505979A (ja) * | 2018-06-07 | 2021-02-18 | 馭勢科技(北京)有限公司Uisee Technologies (Beijing) Ltd. | 自己位置推定と環境マップ作成を同時に行う方法及び装置 |
JP7096274B2 (ja) | 2018-06-07 | 2022-07-05 | 馭勢科技(北京)有限公司 | 自己位置推定と環境マップ作成を同時に行う方法及び装置 |
JP2020065114A (ja) * | 2018-10-15 | 2020-04-23 | 株式会社アルファコード | 映像処理装置、映像処理方法、及び映像処理プログラム |
WO2020080101A1 (ja) * | 2018-10-15 | 2020-04-23 | 株式会社アルファコード | 映像処理装置、映像処理方法、及び映像処理プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008102620A (ja) | 画像処理装置 | |
US9892493B2 (en) | Method, apparatus and system for performing geometric calibration for surround view camera solution | |
US9098928B2 (en) | Image-processing system and image-processing method | |
JP5165631B2 (ja) | 車両周囲画像表示システム | |
US20160182793A1 (en) | Image distortion correction of a camera with a rolling shutter | |
KR101093316B1 (ko) | 차량주행중 영상정합 방법 및 그 시스템 | |
JP5178454B2 (ja) | 車両周囲監視装置及び車両周囲監視方法 | |
JP2011182236A (ja) | カメラキャリブレーション装置 | |
JP2010109452A (ja) | 車両周囲監視装置及び車両周囲監視方法 | |
JP2017091284A (ja) | 車両用画像処理装置および車両用画像処理システム | |
US20150078619A1 (en) | System and method for detecting obstacles using a single camera | |
JP5959311B2 (ja) | データ導出装置、及び、データ導出方法 | |
US20140055572A1 (en) | Image processing apparatus for a vehicle | |
WO2016092967A1 (ja) | 画像生成装置及び画像生成方法 | |
JP5539250B2 (ja) | 接近物体検知装置及び接近物体検知方法 | |
JP2014106706A (ja) | 車載画像処理装置 | |
JP2018013985A (ja) | 物体検知装置 | |
KR20120108256A (ko) | 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법 | |
JP2000293693A (ja) | 障害物検出方法および装置 | |
JP2010183234A (ja) | 描画装置 | |
JPWO2019069469A1 (ja) | 物体検知装置、物体検知方法、及びプログラム | |
JP4696925B2 (ja) | 画像処理装置 | |
JP6860445B2 (ja) | 物体距離検出装置 | |
JP6960827B2 (ja) | 路面領域検出装置 | |
JP2008286648A (ja) | 距離計測装置、距離計測システム、距離計測方法 |