JP6734136B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6734136B2
JP6734136B2 JP2016142109A JP2016142109A JP6734136B2 JP 6734136 B2 JP6734136 B2 JP 6734136B2 JP 2016142109 A JP2016142109 A JP 2016142109A JP 2016142109 A JP2016142109 A JP 2016142109A JP 6734136 B2 JP6734136 B2 JP 6734136B2
Authority
JP
Japan
Prior art keywords
image
coordinate
viewpoint
coordinates
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016142109A
Other languages
English (en)
Other versions
JP2018014583A (ja
Inventor
樋口 晴彦
樋口  晴彦
中嶋 満雄
満雄 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2016142109A priority Critical patent/JP6734136B2/ja
Priority to PCT/JP2017/023601 priority patent/WO2018016274A1/ja
Publication of JP2018014583A publication Critical patent/JP2018014583A/ja
Application granted granted Critical
Publication of JP6734136B2 publication Critical patent/JP6734136B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置に関する。
車両に設置されたカメラで車両の周囲を撮影し、撮影して得られた画像を車内に表示する画像表示システムが知られている。このような画像表示システムを利用することにより、運転者は車両周辺の様子をリアルタイムに視認性高く確認することができる。特許文献1には、仮想的に設定した視点の位置に応じて、撮影して得られた画像を投影する座標を変形させる構成が開示されている。
特開2012−138660号公報
特許文献1に記載されている発明では、撮影して得られた画像に立体物が含まれている場合に立体物に像歪みが発生する。
本発明の第1の態様によると、画像処理装置は、入力された撮影画像を所定の座標変換情報を用いて座標変換した視点変換画像を生成する視点変換画像生成部と、前記座標変換情報を補正する補正部と、を備え、前記補正部は、前記座標変換情報のうち、前記撮影画像において立体物が存在する領域に対応する情報を補正し、前記視点変換画像生成部は、前記補正部により補正された前記座標変換情報を用いて前記撮影画像の座標変換を行う。
本発明によれば、立体物の像歪みを低減した視点変換画像を生成することができる。
車両20に搭載される画像処理装置100のブロック図である。 車両20を上部から見下ろした図である。 車両20を側面から見た図である。 カメラ座標系、仮想視点座標系、およびワールド座標系の定義を示す図である。 テーブルデータ121の一例を示す図である。 図6(A)は、図2〜3に示す状況における前カメラ10Aの撮影画像301を示す図である。図6(B)は、図2〜3に示す状況における仮想視点25の視点変換画像311を示す図である。 距離取得部114Aにより取得される被写体の奥行き情報、すなわち距離画像の一例を示す図である。 図8(A)は図6(A)と同様の撮影画像301に、補正対象座標対応点を重畳した図である。図8(B)は図6(B)と同様の視点変換画像311に、立体物21の接地点61の座標P0vを重畳した図である。 テーブルデータ121から補正対象座標対応点を抽出し、補正前後の座標を示した図である。 仮想視点25の視点変換画像311を本提案手法により補正した画像の例を示す図である。 図2〜3に示す状況において、テーブルデータ121を補正しない場合の仮想視点26の視点変換画像1001を示す図である。 補正結果の一例を示す図である。 画像処理装置100の動作を表すフローチャートである。 第2の実施の形態における画像処理装置100のブロック図である。 テーブルデータ121Aの一例を示す図である。 テーブルデータ121Aから補正対象座標対応点を抽出し、補正前後の座標を示した図である。
(第1の実施の形態)
以下、図1〜図12を参照して、画像処理装置の第1の実施の形態を説明する。
図1は、車両20に搭載される画像処理装置100のブロック図である。車両20は、画像処理装置100と、前カメラ10Aと、左カメラ10Bと、右カメラ10Cと、後カメラ10Dと、距離検出部114と、表示部13とを備える。以下では、前カメラ10Aと、左カメラ10Bと、右カメラ10Cと、後カメラ10Dとをまとめて、カメラ10A〜10Dと呼ぶ。画像処理装置100は、カメラ10A〜10Dが撮影した画像を用いて、車両20の周囲をカメラ10A〜10Dの設置位置とは異なる仮想的な位置(以下、仮想視点)に仮想的なカメラを設置して撮影した場合に得られる画像(以下、視点変換画像)を表示部13に出力する。本実施の形態では、車両20は静止している、または画像処理装置100の処理が十分高速である、などの理由により画像処理装置100の処理は、車両20の移動を考慮する必要がないとする。さらに本実施の形態では、仮想視点は予め設定された複数からユーザが選択するものとし、ユーザは任意に仮想視点を設定できないものとする。
なお以下に説明する第1の実施の形態では、仮想視点に設置する仮想的なカメラの光軸は鉛直下方向、または水平方向を向くものとして説明するが、仮想的なカメラの光軸の向きはこれに限定しない。以下に説明する座標変換の回転軸を1軸追加することにより、仮想的なカメラの光軸の向きを自由に設定できる。
画像処理装置100は、CPUなどから構成される制御部11と、フラッシュメモリやROMなどから構成される記憶部12とを備える。
制御部11は、記憶部12に記憶されているプログラムを実行することにより、第1画像取得部111A、第2画像取得部111B、第3画像取得部111C、第4画像取得部111D、モード切替部112、テーブル補正部113、距離取得部114A、変形合成部115、表示制御部116およびバス117として機能する。以下では、第1画像取得部111A、第2画像取得部111B、第3画像取得部111C、および第4画像取得部111Dをまとめて画像取得部111A〜111Dと呼ぶ。
記憶部12には、制御部11により実行されるプログラム、および後述するテーブルデータ121が記憶される。テーブルデータ121は、俯瞰画像や鳥瞰画像などの視点変換画像を生成する際に用いられるルックアップテーブルであり、画像処理装置100を含むシステムの設計段階において、車両20に設置するカメラ10A〜10Dおよび仮想視点の位置や角度、撮像条件により予め作成される。
第1画像取得部111A、第2画像取得部111B、第3画像取得部111C、および第4画像取得部111Dは、それぞれ前カメラ10A、左カメラ10B、右カメラ10C、後カメラ10Dにより撮影される画像を取得する。
モード切替部112は、不図示の仮想視点切替えスイッチへの入力を不図示のCAN(Controller Area Network)を介して取得する。仮想視点切替えスイッチは、仮想視点の位置、および仮想視点に設置される仮想的なカメラの光軸の向きを、予め設定された組み合わせから選択するものである。モード切替部112は、取得した仮想視点切替えスイッチへの入力をテーブル補正部113に出力する。
テーブル補正部113は、モード切替部112の出力に基づき、それぞれのカメラに対応するテーブルデータ121を記憶部12から読み込む。すなわち、テーブルデータ121はカメラごと、仮想視点ごとに設けられる。また、後述するように距離取得部114Aの出力に基づきテーブルデータ121を補正し、補正したテーブルデータを変形合成部115に出力する。
距離取得部114Aは、距離検出部114が検出した、水平方向および垂直方向に分解能を持った奥行き情報を取得する。以下では、距離取得部114Aが取得する奥行き情報を距離画像と呼ぶ。
変形合成部115は、画像取得部111A〜111Dにより取得された撮影画像と、テーブル補正部113により補正されたテーブルデータとを用いて、視点変換画像を生成する。
表示制御部116は、変形合成部115により生成された視点変換画像を表示部13に出力し表示させる。
バス117は、上述した制御部11の各ブロックにおいて生成もしくは取得された情報が書き込まれまたは読み出される。
表示部13は、例えばLCDディスプレイやプロジェクタ、または車両20に搭載されたカーナビゲーション装置の表示部である。表示部13は表示制御部116から出力された情報を表示する。
距離検出部114は、車両周囲の物体の奥行き情報を、水平方向および垂直方向に分解能を持った情報として検出する。検出手段としては、レーザレーダ、ソナー、ToF(Time of Flight)などの測距デバイスを用いるのでもよいし、ステレオカメラを用いた三角測量、単眼カメラのSfM(Structure from Motion)により推定するのでもよいし、事前に周囲の立体形状を測量し、GPS(Global Positioning System)を用いて自車位置を推定して自車と物体との奥行き情報を求めてもよい。距離検出部114の車両20への取付け位置、および取付け姿勢は既知であり、記憶部12に格納される。
(動作環境)
図2〜図3は、画像処理装置100が動作する状況を説明する図である。図2は画像処理装置100を搭載する車両20を上部から見下ろした図、図3は車両20を側面から見た図である。車両20の前方正面の地面にはマーカー22が設置され、車両20の前方左には樹木、すなわち立体物21がある。図2〜図3に破線で示すカメラは、仮想的に設置されるカメラ、すなわち仮想視点を表している。
車両20の前部には前カメラ10Aが設置され、その光軸は車両20の前方の路面23に向けられており、立体物21および路面上のマーカー22をその撮影範囲内に捉えている。また同様に、車両20の左部、右部および後部には、それぞれ左カメラ10B、右カメラ10C、および後カメラ10Dが設置され、それらの光軸はそれぞれ車両20の左方、右方、後方の路面23に向けられている。
カメラ10A〜10Dは広角のレンズを備え、それぞれ約180度の画角を有する。カメラ10A〜10D、および距離検出部114の設置位置および設置角度は、車両20の設計段階において予め定められ既知である。なお、距離取得部114Aは、図2〜図3において、画像処理装置100に内包されるように示しているが、画像処理装置100の外部に設置されてもよいし、カメラ10A〜10Dの各近傍に複数台を設置してもよい。
仮想視点25は、車両20の前方上部から真下を撮像し、車両20の前方を俯瞰する視点である。仮想視点26は、車両20の右前方から左前方を望む視点である。以下では、まず図2〜3に示す状況において仮想視点25から得られる画像の作成方法を説明する。次に、仮想視点26から得られる画像の作成方法を説明する。ただし画像処理装置100はカメラ10A〜10Dを備えるが、前カメラ10Aの撮影画像を変換する場合を代表して説明する。
仮想視点25から得られる画像の作成方法を説明する。
(座標変換)
図4は、カメラ座標系、仮想視点座標系、およびワールド座標系の定義を示す図である。カメラ座標系とは、画像を撮影するカメラを基準とする座標系である。図4には前カメラ10Aを基準とするカメラ座標系Rの3軸、すなわちX、Y、Zが図示される。仮想視点座標系とは、モード切替部112への入力によって決定される仮想視点を基準とする座標系である。図4には仮想視点25を基準とする仮想視点座標系Vの3軸、すなわちX、Y、Zが図示される。ワールド座標系は、車両20が走行する路面を基準に設定された座標系である。図4にはワールド座標系Wの3軸、すなわちX、Y、Zが図示される。XおよびYは路面に平行であり、Z=0の平面に路面が含まれる。
カメラ座標系Rの1軸であるZは前カメラ10Aの光軸と一致、すなわち撮像素子と直交し、他の2軸であるXおよびYは、前カメラ10Aの撮像素子の長辺および短辺と平行である。カメラの焦点距離zを用いて表すと、撮影画像301を構成する各画素の位置は、Z=zに位置するX平面上の座標データで表現される。すなわち、カメラ座標系Rは、撮影画像301の座標系と等しい。
仮想視点座標系の1軸であるZは仮想視点25に置かれた仮想的なカメラの光軸と一致、すなわち仮想的な撮像素子と直交し、他の2軸であるXおよびYは、仮想的な撮像素子の長辺および短辺と平行である。仮想視点25に置かれるカメラの焦点距離zvを用いて表すと、視点変換画像311を構成する各画素の位置は、Z=zに位置するX平面上の座標データで表現される。すなわち、仮想視点座標系Vは、視点変換画像311の座標系と等しい。
ある点Pをワールド座標系WではPと呼び、その座標を(x、y、z)と表す。前カメラ10Aにより点Pを撮影した際の撮影画像における点PをPと呼び、点Pの座標を(x、y、z)と表す。仮想視点25から得られる画像における点PをPと呼び、Pの座標を(x、y、z)と表す。
ワールド座標系Wにおける点Pの座標(x、y、z)をカメラ座標系Rの点Pの座標(x、y、z)に座標変換するには、たとえば、式(1)に示すようなアフィン変換が用いられる。
Figure 0006734136
ここで、Mrは、式(2)に示されるような4x4の透視投影変換行列である。
Figure 0006734136
式(2)において、Rは3x3の回転行列、Tは1x3の平行移動行列、0は3x1の零行列である。回転行列Rおよび平行移動行列Tは、ワールド座標系上でのカメラ10Aの設置位置および設置角度、カメラ10Aの内部パラメータである焦点距離および撮像素子の有効画素サイズなどに基づいて周知な方法で算出される。
また、ワールド座標系Wの点Pの座標(x、y、z)を仮想視点座標系Vの点Pの座標(x、y、z)に座標変換するには、たとえば、式(3)に示すようなアフィン変換が用いられる。
Figure 0006734136
ここで、Mは、式(4)に示されるような4x4の透視投影変換行列である。
Figure 0006734136
式(4)において、Rは3x3の回転行列、Tは1x3の平行移動行列、0は3x1の零行列である。回転行列Rおよび平行移動行列Tは、ワールド座標系上での仮想視点25の位置および角度、仮想視点25の仮想的な焦点距離および撮像素子の有効画素サイズなどに基づいて周知な方法で算出される。
上述した式(1)と式(3)とを組み合わせると、カメラ座標系Rの点Pの座標を仮想視点座標系Vの点Pの座標に座標変換するための式(5)が得られる。
Figure 0006734136
式(5)では、透視投影変換行列Mの逆行列によりカメラ座標系Rの点Pの座標をワールド座標系の点Pの座標に座標変換し、その点Pの座標を透視投影変換行列Mにより仮想視点座標系Vの点Pの座標(x、y、zv)に座標変換している。式(5)による座標変換結果を用いて、視点変換画像311の点Pの画素値を、対応する撮影画像301の点Pの画素値から算出することができる。
(テーブルデータ121)
記憶部12に格納されるそれぞれのテーブルデータ121は、あらかじめ計算された撮影画像上の点Pと視点変換画像上の点Pとの対応関係を複数組について記述したものである。すなわち、カメラ座標系Rの所定の点Pr1の座標(xr1,yr1)、Pr2の座標(xr2,yr2)、・・・をそれぞれ上述の式(5)で仮想視点座標系Vの対応点への座標に変換して得られたものである。ここで、2つの座標系で対応する点同士、すなわち画素同士の対応関係を座標対応情報と呼び、この座標対応情報がテーブルデータ121として作成されている。なお、テーブルデータ121においては、カメラ10Aの焦点距離等が固定されているものとしてZ座標の情報は省略されている。
以降の説明では、撮影画像301および視点変換画像311の画素のうち、テーブルデータ121に座標対応情報が記憶されている画素を座標対応画素、あるいは座標対応点と呼ぶ。すなわち、撮影画像301および視点変換画像311には、複数の座標対応点が予め設定されている。テーブルデータ121を予め記憶部12に記憶しておき、視点変換画像311を作成する際に参照することで、数式5の演算回数を低減し、座標変換の処理時間を短縮することができる。なお、テーブルデータ121に予め記憶しておく座標対応情報が増加するほど、テーブルデータ121のデータ量が増加する。テーブルデータ121のデータ量を削減するため、撮影画像301の一部の画素についてのみ座標対応情報を予め記憶し、他の画素については補間処理により点Pの画素値を算出する。
図5は、テーブルデータ121の一例を示す図である。テーブルデータ121は、撮影画像301の離散的な画素の座標と、その座標に対応する視点変換画像311の画素の座標との対応関係を定義する座標対応テーブルである。図5では、対応関係番号1、2、…、nの各画素の座標対応情報が示されている。画像処理装置100は、撮影画像301の各画素の座標ごとにテーブルデータ121を参照して、対応する視点変換画像311の画素の座標を演算する。
(テーブルデータを用いた処理例)
図6(A)は、図2〜3に示す状況における前カメラ10Aの撮影画像301を示す図である。図6(A)において格子状に規則的に配置される「×」印は、上述した座標対応画素を表している。図6(A)の下部には前カメラ10A付近の路面23やマーカー22が撮影され、図6(A)の上部ほど前カメラ10Aから遠い路面23が撮影されている。図6(A)の左上部には車両20の左前方に存在する立体物21が撮影されている。
図6(B)は、図2〜3に示す状況における仮想視点25の視点変換画像311を示す図である。図6(B)における「×」印も、上述した座標対応画素を表している。ただし図6(B)は後述するテーブルデータ121の補正を行わず、記憶部12に保存されたテーブルデータ121をそのまま用いた場合の例である。視点変換画像311は、撮影画像301を用いて、Z=0の平面に画像を投影し生成しており、視点変換画像311のうち立体物21の像については拡大されるような像歪みを生じている。以下では、テーブルデータ121を補正することで像歪みを低減する補正処理を説明する。
なお、図6(B)の視点変換画像311の左下部および右下部の画像は、カメラ10Bおよび10Cから取得された画像の一部を利用して作成されている。カメラ10Aが撮像する被写体領域とカメラ10Bが撮像する被写体領域とが重なる領域は、たとえば、二つのカメラ10Aおよび10Bから取得した画像をαブレンディングにより合成する。
(補正対象の特定)
図7は、距離取得部114Aにより取得される被写体の奥行き情報、すなわち距離画像60の一例を示す図である。距離検出部114は、一般的なカメラと同様に水平方向・垂直方向に分解能を持ち、この分解能に応じた撮像面上の各位置における被写体の奥行き情報を取得して距離取得部114Aに出力する。距離取得部114Aは、距離検出部114からの奥行き情報を取得することで、図7のような距離画像60を取得することができる。距離画像60では、たとえば各画素の白から黒の輝度の濃淡により、距離検出部114の撮像面上の各位置における被写体の奥行き情報を表している。なお図7では図面の表現の制約により4種類のハッチングを用いて奥行きを表現しているが、距離検出部114の奥行きの分解能はより高いものとする。また図7では説明の簡易化のために、距離検出部114とカメラ10Aとが同一の設置位置、光軸方向および画角を持つものとして距離画像60を例示している。
距離取得部114Aにより取得される距離画像60において、図4におけるZ=0である路面23および路面上のマーカー22は、画像下部から上部にかけて奥行き情報が連続的に変化している。一方、立体物21は画像下部から上部にかけて奥行きの変化がほとんどなく、立体物21の基部から頂部まで距離検出部114からの距離は略同一である。そのため、距離画像60において奥行き情報が周囲と異なる境界を抽出することにより、高さを持つ立体物、すなわち図7の例における立体物21を検出することが可能である。また、検出した立体物21の下方、奥行き情報が周囲と連続的となる接地点61は、立体物21と路面23との交点として検出することができる。以下では、距離画像60における接地点61の座標をP0dと呼ぶ。
前述のとおり、距離検出部114と前カメラ10Aとの位置関係および姿勢関係は既知である。そのため、距離検出部114により得られた距離画像60における座標を前カメラ10Aにより得られた撮影画像301の座標に変換することで、撮影画像301上の立体物21の領域を特定することができる。同様に撮影画像301における立体物21の接地点61の座標も特定できる。以下では、撮影画像301における立体物21の接地点61の座標をP0rと呼び、視点変換画像における接地点61の座標をP0vと呼ぶ。
テーブル補正部113は、撮影画像301上の立体物21の領域に含まれる座標対応点を像歪みを低減するための補正対象として、テーブルデータ121を補正する。以下では、補正対象の座標対応点を「補正対象座標対応点」と呼ぶ。ただし補正対象座標対応点は、撮影画像301上の立体物21の領域に含まれるか否かだけでなく、撮影画像301の輝度情報を加味して決定してもよい。
図8(A)は、図6(A)と同様の撮影画像301に、補正対象ではない座標対応点を図6(A)と同様に「×」として重畳し、補正対象座標対応点を「*」として重畳した図である。図8(B)は、図6(B)と同様の視点変換画像311に、立体物21の接地点61の座標P0vを重畳した図である。
(仮想視点25用のテーブルデータ121の補正)
図9は、テーブルデータ121から補正対象座標対応点を抽出し、補正前後の座標を示した図である。本実施の形態では、テーブルデータ121の各座標対応点に関する座標対応情報のうち、上記の補正対象座標対応点に関する座標対応情報を補正することで、テーブルデータ121を補正する。具体的には、補正対象座標対応点o1、o2、o3、・・・、oiについて、これらの視点変換画像上の座標、すなわち仮想視点座標系Vにおける座標である、(xv_o1,yv_o1)、(xv_o2,yv_o2)、(xv_o3,yv_o3)、・・・、(xv_oi,yv_oi)を、(xv_o1’,yv_o1’)、(xv_o2’,yv_o2’)、(xv_o3’,yv_o3’)、・・・、(xv_oi’,yv_oi’)にそれぞれ補正する。こうして補正された補正後のテーブルデータ121を用いて変形合成部115が視点変換画像を生成することにより、図6(B)に例示した立体物21の像歪みを低減する。
補正対象座標対応点の座標を補正する一例として、式(6)を示す。
Figure 0006734136
式(6)では、各補正対象座標対応点の視点変換画像上の補正前の座標(x,y)と接地点P0vの座標(x,y)とを重み係数wを用いて加重平均することにより、各補正対象座標対応点の補正後の座標(x’,y’)を算出している。ここで、重み係数wは0以上1以下の値であり後述する処理により決定される。
図10に、w=0.75とした視点変換画像の補正結果の一例を示す。図中、立体物21の像歪みは図6(B)と比較して低減しており、使用者にとって物体を視認しやすい表示を実現している。ただしこのとき、もともと立体物21が歪んで表示されていた領域91は、カメラ10Aからは死角となり撮像できていない領域(以下、欠損領域と呼ぶ)である。この欠損領域の表示方法としては、図10に例示するように画像情報が欠損した領域として表示してもよいし、別のカメラ(例えばカメラ10B)が撮像している領域であれば、そのカメラの撮影画像から補完してもよいし、車両20が移動している状況でかつ過去フレーム画像で撮像しているのであれば、過去フレームの撮影画像から補完してもよい。
重み係数wの決定方法は以下のとおりである。すなわち、重み係数wは最大の1に近いほど視点変換画像における像歪みが低減されるが、重み係数wが大きいほど欠損領域が増加する。そこで、欠損領域が視点変換画像において予め定めた割合、たとえば30%を超えない最大の重み係数wを算出し、これを用いることとする。換言すると、テーブル補正部113は、補正前の視点変換画像における立体物21の面積、すなわち欠損領域の面積と、補正後の視点変換画像における立体物21の面積との差分が、予め定めた割合(たとえば30%)に相当する面積に達しない範囲で最大の値となるように、重み係数wを設定することができる。
テーブル補正部113は、この重み係数wと上述した式(6)を用いてテーブルデータ121を補正し、補正したテーブルデータを変形合成部115に出力する。変形合成部115は、補正されたテーブルデータ121を用いて仮想視点25から得られる視点変換画像311を作成する。
(仮想視点26の視点変換画像)
仮想視点26から得られる画像の作成方法を、仮想視点25の場合との差異点を中心に説明する。仮想視点26から得られる画像の作成方法と、仮想視点25から得られる画像の作成方法との違いは、テーブルデータ121の補正方法である。すなわち、補正対象座標対応点の決定方法は同じであるが、補正後の座標の算出方法が異なる。
図11は、図2〜3に示す状況において、テーブルデータ121を補正しない場合の仮想視点26の視点変換画像1001を示す図である。図11では、図6(B)と同様に立体物21の像は大きく歪んでいる。テーブル補正部113は、テーブルデータ121を以下のように補正することにより、図11に例示した立体物21の歪みを軽減する。
(仮想視点26用のテーブルデータ121の補正)
テーブル補正部113は、まずテーブルデータ121を用いて、視点変換画像1001における立体物21の接地点61に対応する点P0v(x,y)の座標を算出する。次に、既知である仮想視点26と前カメラ10Aとの位置関係および姿勢関係、ならびに仮想視点26に置かれる仮想的なカメラの焦点距離zに基づき、図11に示した点P(x,y)の座標を算出する。すなわち、ワールド座標系Wにおける前カメラ10Aの座標を、Z=zに位置するX平面上に平行投影した座標、すなわち視点変換画像1001における前カメラ10Aの位置に対応する点P(x,y)の座標を算出する。そして、点P0vと点Pを結ぶ直線L1と図示水平方向の直線L2とのなす角度θを得る。路面に対して直立する立体物21は、視点変換画像1001において、カメラ10Aから見て接地面61を起点に放射状に歪んで変換される点に注目しているため、このように角度θを求めた。テーブルデータ121を補正する一例として、θの回転行列を用いた式(7)を示す。
Figure 0006734136
αおよびβは重み係数であり、0以上1以下の値であり後述する処理により決定される。式(7)では、視点変換画像上の補正前の座標(x,y)から補正後の座標(x’,y’)への補正において、重み係数βにより立体物21を接地点P0vを回転中心として図示鉛直方向に回転させる度合いを決定し、重み係数αにより接地点P0vに近づける度合いを決定している。式(7)における処理を換言すると、式(6)に示したように加重平均処理と接地点P0vを中心とした回転処理を複合したものである。
図12に、α=β=0.75としたときの補正結果の一例を示す。図10に示した補正画像と同様に、立体物21の像歪みを低減している。すなわち本実施形態では、前述のような方法により、テーブルデータ121の各座標対応点に関する座標対応情報のうち、立体物の領域に含まれる補正対象座標対応点に関する座標対応情報を補正することで、テーブルデータ121が補正される。その結果、図10および図12に示すように、像歪みを低減し違和感の少ない映像を提供することが可能となる。なお、図12では補正前に立体物21が表示されていた領域は欠損領域91として表示しているが、別カメラの撮影画像や過去フレームの撮影画像から補完してもよい。
(フローチャート)
以上説明した視点変換画像の作成処理を図13のフローチャートを用いて説明する。
ステップS1201では、テーブル補正部113は、モード切替部112の設定を読み込み、その設定に対応する4つのカメラ10A〜10Dそれぞれのテーブルデータ121を読み込む。次にステップS1202に進む。
ステップS1202では、テーブル補正部113は、距離検出部114が検出した車両20の周囲の距離情報である距離画像を距離取得部114Aを介して取得し、ステップS1203に進む。
ステップS1203では、テーブル補正部113は、ステップS1202において取得した距離画像から立体物を検出する。さらに検出した立体物が存在する距離画像上の領域、および立体物の接地点の座標を記録する。たとえば、図7の左側に示すように下方から上方にかけて距離が変化しない領域があれば立体物として検出する。次にステップS1204に進む。
ステップS1204では、ステップS1203において立体物が検出されたか否かを判断し、立体物が検出されたと判断する場合はステップS1205に進み、立体物が検出されないと判断する場合はステップS1210に進む。
ステップS1205では、ステップS1203において検出した、距離画像における立体物の領域および立体物の接地点の座標を、撮影画像301における立体物の領域および立体物の接地点の座標P0rに変換する。次にステップS1206に進む。
ステップS1206では、ステップS1201において読み込んだテーブルデータ121のうち補正対象となるデータ、すなわちステップS1205において算出した撮影画像301における立体物の領域に含まれるデータを抽出する。次にステップS1207に進む。
ステップS1207では、補正モードが俯瞰モードと鳥瞰モードのいずれであるかを判断する。俯瞰モードとは仮想視点に設置される仮想的なカメラの光軸が地面に鉛直な場合に選択されるモードであり、鳥瞰モードとは仮想視点に設置される仮想的なカメラの光軸が地面に鉛直ではない場合に選択されるモードである。本実施の形態では仮想視点25が設定された場合には俯瞰モードが選択され、仮想視点26が設定された場合には鳥瞰モードが選択される。俯瞰モードであると判断する場合はステップS1208に進み、鳥瞰モードであると判断する場合はステップS1209に進む。
ステップS1208では、式6を用いてテーブルデータ121を補正してステップS1210に進む。ステップS1209では、式7を用いてテーブルデータ121を補正してステップS1210に進む。
ステップS1210では、変形合成部115によりテーブル補正部113からテーブルデータ121を読み込み、画像取得部111A〜111Dにより取得された撮影画像301を用いて視点変換画像を生成する。立体物が検出されていた場合は、テーブルデータ121はS1208もしくはS1209により補正されており、立体物の歪みが低減された視点変換画像が生成される。そして、表示制御部116を介して表示部13に表示する。
上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)画像処理装置100は、入力された撮影画像301を所定の座標変換情報、すなわちテーブルデータ121を用いて座標変換した視点変換画像を生成する視点変換画像生成部、すなわち変形合成部115と、テーブルデータ121を補正するテーブル補正部113と、を備える。テーブル補正部113は、テーブルデータ121のうち、撮影画像301において立体物が存在する領域に対応する座標対応情報を補正する。視点変換画像生成部、すなわち変形合成部115は、テーブル補正部113により補正されたテーブルデータ121を用いて撮影画像301の座標変換を行う。
画像処理装置100をこのように構成したので、立体物の像歪みを低減した視点変換画像を生成することができる。また、テーブルデータ121のうち立体物が存在する領域に対応する情報に限定して補正しているので、テーブルデータ121の全体を補正する場合に比べて処理を高速化できる。
(2)座標変換情報、すなわちテーブルデータ121は、撮影画像301の座標と視点変換画像の座標との変換テーブルである。そのため変形合成部115は、テーブルデータ121を参照することで容易に視点変換画像を作成することができる。
(3)座標変換情報、すなわちテーブルデータ121は、予め設定された複数の座標対応点の撮影画像301の座標系、すなわちカメラ座標系Rにおける座標と、他の座標系である仮想視点座標系Vにおける座標との対応関係を表す変換テーブルである。テーブル補正部113は、撮影画像301において立体物が存在する領域、たとえば図7において破線で囲んだ立体物21の領域、および立体物の接地点P0d、たとえば図7における接地点61を特定する。テーブル補正部113は、テーブルデータ121において、複数の座標対応点のうち撮影画像301において立体物が存在する領域内の座標対応点o1、o2、o3、・・・、oiを補正対象座標対応点として、これらの補正対象座標対応点の仮想視点座標系Vにおける座標を、立体物の接地点P0rに対応する座標対応点の仮想視点座標系Vにおける座標P0vに基づき補正する。そのため、視点変換画像において歪みのない立体物21の接地点61を基準としてテーブルデータ121を補正することができる。
(4)テーブル補正部113は、重み係数wを、補正前の他の座標系における立体物の面積と補正後の他の座標系における立体物の面積との差分が、視点変換画像における予め定めた割合、たとえば30%に相当する面積に達しない最大の値に設定する。そのため、欠損領域を予め定めた割合以下に留めつつ、立体物の像歪みを低減することができる。
(5)テーブル補正部113はさらに、他の座標系における座標(x’、y’)を、立体物の接地点に対応する他の座標系における座標P0v(x、y)を回転中心として回転させた座標に補正する。そのため、視点変換画像において立体物が倒れ込むようむ描画されることを抑制することができる。
(変形例1)
テーブル補正部113が距離画像から立体物を検出すると、撮影画像301において当該立体物が撮像されている位置に応じて、仮想視点の位置をカメラ10の近くに変更してもよい。さらに、仮想視点に設置される仮想的なカメラの光軸の向きをカメラ10の光軸の向きに近づけてもよい。
(変形例2)
テーブル補正部113が距離画像から検出した立体物が、複数のカメラにより撮影される領域に存在する場合は、各々の撮影画像301から生成される視点変換画像のうち、像歪みのより少ない視点変換画像を選択して本発明の補正処理を適用してもよい。
(変形例3)
画像処理装置100は、第1〜第4の画像取得部を備えたが、画像取得部を1つのみ備え、複数のカメラから順次画像が入力されてもよい。また、画像処理装置100に接続されるカメラの数は少なくとも1つあればよく、5以上であってもよい。
(変形例4)
上述した第1の実施の形態は、各カメラ10A〜10D及び距離検出部114が毎時刻動作しており、視点変換画像を動画像として表示する場合にも適用することができる。また、車両20もしくは立体物21が動くことにより、点P0v及び点P0vが変化している状況でも、適用することができる。その場合は、例えば変換画像において動く立体物の像のブレを防止することを目的として、以下のように演算を行ってもよい。すなわち、テーブル補正部113は補正するテーブルデータ121の履歴を保存し、次のテーブルデータ121の補正時にテーブルデータ121の履歴を用いた加重平均などにより、各補正対象座標対応点の補正後の座標(x’,y’)を算出してもよい。
(第2の実施の形態)
図14〜図16を参照して、画像処理装置100の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、ユーザが仮想視点を自由に設定可能な点で、第1の実施の形態と異なる。
(第2の実施の形態の概要)
第1の実施の形態におけるテーブルデータ121は、式(5)により表される撮影画像上の点Pと視点変換画像上の点Pとの対応関係を示すものであったが、後述する第2の実施の形態におけるテーブルデータ121Aは、式(1)により表される撮影画像上の点Pと三次元空間上の点Pとの対応関係を示すものである。本実施の形態では、テーブルデータ121Aを補正することにより3次元区間上に投影される撮影画像が変形される。変形合成部115Aは、3次元区間上に投影された撮影画像を仮想視点から撮影した画像、すなわち視点変換画像を作成する。
(構成)
図14は、第2の実施の形態における画像処理装置100のブロック図である。各ブロックの動作および機能のうち、第1の実施の形態との差異点を説明する。第2の実施の形態における画像処理装置100は、制御部11Aと、記憶部12Aとを備える。
制御部11は、記憶部12に記憶されているプログラムを実行することにより、第1画像取得部111A、第2画像取得部111B、第3画像取得部111C、第4画像取得部111D、モード切替部112A、テーブル補正部113A、距離取得部114A、変形合成部115A、表示制御部116およびバス117として機能する。
記憶部12Aには、制御部11により実行されるプログラム、およびテーブルデータ121Aが記憶される。テーブルデータ121Aは、車両20が備えるカメラと同じ数、すなわち4つのみ備えられる。第2の実施の形態におけるテーブルデータ121Aは、仮想視点の位置や姿勢等に関する情報を含まないからである。テーブルデータ121Aの構成は後述する。
モード切替部112Aは、ユーザによる不図示の仮想視点設定部への設定を不図示のCAN(Controller Area Network)を介して取得する。仮想視点設定部は、仮想視点の位置、および仮想視点に設置される仮想的なカメラの光軸の向きを、ユーザが自由に設定できるものである。モード切替部112Aは、取得した仮想視点設定部の設定を変形合成部115に出力する。
テーブル補正部113Aは、それぞれのカメラに対応するテーブルデータ121を記憶部12から読み込む。テーブル補正部113は、距離取得部114Aの出力に基づき第1の実施の形態と同様にテーブルデータ121を補正し、補正したテーブルデータを変形合成部115に出力する。
変形合成部115Aは、テーブル補正部113により補正されたテーブルデータを用いて、画像取得部111A〜111Dにより取得された撮影画像を3次元空間上に投影する。そして変形合成部115は、モード切替部112が出力する仮想視点設定部の設定に基づき、3次元空間上に投影された撮影画像を対象に式(3)により表される座標変換処理を行い視点変換画像を取得する。
(テーブルデータ121A)
図15は、テーブルデータ121Aの一例を示す図である。テーブルデータ121Aは、式(1)により表される撮影画像301上の点Pと三次元空間上の点Pとの対応関係を示すものである。ただし本実施の形態では、3次元空間上の点PのZ座標の値は全てゼロである。すなわちテーブルデータ121Aは、撮影画像301上の点Pと三次元空間上のZ=0の平面上の点Pとの対応関係を示す。
(テーブルデータ121Aの補正)
図16は、テーブルデータ121Aから補正対象座標対応点を抽出し、補正前後の座標を示した図である。本実施の形態では、立体物21の補正対象座標対応点の3次元空間上の座標である、(xw_o1,yw_o1,zw_o1)、(xw_o2,yw_o2,zw_o2)、(xw_o3,yw_o3,zw_o3)、・・・を、(xw_o1’,yw_o1’,zw_o1’)、(xw_o2’,yw_o2’,zw_o2’)、(xw_o3’,yw_o3’,zw_o3’)、・・・に補正する。ただし補正前後のいずれもZw座標はゼロとする。すなわち当該補正は三次元空間上のZw=0の平面上に限られるものであり、補正に用いる計算式は第1の実施の形態と同様である。
上述した第2の実施の形態によれば、次の作用効果が得られる。
(1)座標変換テーブル121は、撮影画像301の座標と三次元空間上の座標との変換テーブルである。視点変換画像生成部、すなわち変形合成部115は、座標変換テーブル121を用いて座標変換した三次元空間上の撮影画像を、さらに座標変換することにより視点変換画像を得る。そのため、事前に想定していない仮想視点がユーザにより設定された場合にも座標変換テーブル121を用いて視点変換画像を作成することができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するためにシステム全体を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
R … カメラ座標系
V … 仮想視点座標系
W … ワールド座標系
w … 重み係数
12、12A … 記憶部
20 … 車両
21 … 立体物
25、26 … 仮想視点
100 … 画像処理装置
111A〜111D … 画像取得部
114 … 距離検出部
114A … 距離取得部
115 … 変形合成部
115A … 変形合成部
121、121A … テーブルデータ
301 … 撮影画像
311 … 視点変換画像

Claims (3)

  1. 入力された撮影画像を所定の座標変換情報を用いて座標変換した視点変換画像を生成する視点変換画像生成部と、
    前記座標変換情報を補正する補正部と、を備え、
    前記座標変換情報は、予め設定された複数の座標対応点の前記撮影画像の座標系における座標と前記視点変換画像の座標系における座標との対応関係を表す座標変換テーブルであり、
    前記補正部は
    前記撮影画像において立体物が存在する領域、および前記立体物の接地点を特定し、
    前記座標変換テーブルにおいて、前記複数の座標対応点のうち前記撮影画像において前記立体物が存在する領域内の座標対応点を補正対象座標対応点として、
    前記立体物の接地点に対応する座標対応点の前記視点変換画像上の座標と、前記補正対象座標対応点の前記視点変換画像上の補正前の座標とを、0以上1以下の実数である重み係数を用いて加重平均することにより、前記補正対象座標対応点の前記視点変換画像における座標を補正し、
    前記視点変換画像生成部は、
    前記補正部により補正された前記座標変換情報を用いて前記撮影画像の座標変換を行う、画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記補正部は、前記重み係数を、補正前の前記視点変換画像における前記立体物の面積と補正後の前記視点変換画像における前記立体物の面積との差分が、前記視点変換画像における予め定めた割合に相当する面積に達しない最大の値となるように設定する、画像処理装置。
  3. 請求項1に記載の画像処理装置において、
    前記補正部はさらに、前記補正対象座標対応点の前記視点変換画像における座標を、前記立体物の接地点に対応する座標対応点の前記視点変換画像における座標を回転中心として回転させた座標に補正する、画像処理装置。
JP2016142109A 2016-07-20 2016-07-20 画像処理装置 Active JP6734136B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016142109A JP6734136B2 (ja) 2016-07-20 2016-07-20 画像処理装置
PCT/JP2017/023601 WO2018016274A1 (ja) 2016-07-20 2017-06-27 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016142109A JP6734136B2 (ja) 2016-07-20 2016-07-20 画像処理装置

Publications (2)

Publication Number Publication Date
JP2018014583A JP2018014583A (ja) 2018-01-25
JP6734136B2 true JP6734136B2 (ja) 2020-08-05

Family

ID=60993317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016142109A Active JP6734136B2 (ja) 2016-07-20 2016-07-20 画像処理装置

Country Status (2)

Country Link
JP (1) JP6734136B2 (ja)
WO (1) WO2018016274A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7074546B2 (ja) * 2018-04-13 2022-05-24 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置および方法
WO2023242903A1 (ja) * 2022-06-13 2023-12-21 三菱電機株式会社 物体検出装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132349A (ja) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd 描画装置
JP5057936B2 (ja) * 2007-11-09 2012-10-24 アルパイン株式会社 鳥瞰画像生成装置および方法
JP5053043B2 (ja) * 2007-11-09 2012-10-17 アルパイン株式会社 車両周辺画像生成装置および車両周辺画像の歪み補正方法
JP2010109452A (ja) * 2008-10-28 2010-05-13 Panasonic Corp 車両周囲監視装置及び車両周囲監視方法
WO2013018173A1 (ja) * 2011-07-29 2013-02-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2014110604A (ja) * 2012-12-04 2014-06-12 Denso Corp 車両周辺監視装置

Also Published As

Publication number Publication date
WO2018016274A1 (ja) 2018-01-25
JP2018014583A (ja) 2018-01-25

Similar Documents

Publication Publication Date Title
JP6311020B2 (ja) 映像合成システムとそのための映像合成装置及び映像合成方法
JP3868876B2 (ja) 障害物検出装置及び方法
NL2010463C2 (nl) Werkwijze voor het genereren van een panoramabeeld.
JP5491235B2 (ja) カメラキャリブレーション装置
JP5455124B2 (ja) カメラ姿勢パラメータ推定装置
JP4861574B2 (ja) 運転支援装置
JP6079131B2 (ja) 画像処理装置、方法、及びプログラム
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
JP5299296B2 (ja) 車両周辺画像表示装置及び車両周辺画像表示方法
JP2009129001A (ja) 運転支援システム、車両、立体物領域推定方法
US11887336B2 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
JPWO2012017560A1 (ja) 画像処理装置および画像処理プログラム
JP6276719B2 (ja) 画像生成装置、座標変換テーブル作成装置および作成方法
US8736665B2 (en) Video processing apparatus
JP7150709B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR101705558B1 (ko) Avm 시스템의 공차 보정 장치 및 방법
JP2016225865A (ja) 俯瞰画像生成装置
JP6734136B2 (ja) 画像処理装置
JP2019016308A (ja) 物体検出装置及び方法
KR101351911B1 (ko) 카메라의 영상 처리 장치 및 방법
JP7074546B2 (ja) 画像処理装置および方法
CN110832851B (zh) 图像处理装置、图像变换方法
JP2009077022A (ja) 運転支援システム及び車両
JP7436331B2 (ja) 画像処理装置
JP7196920B2 (ja) 運転支援装置および運転支援方法、プログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200709

R150 Certificate of patent or registration of utility model

Ref document number: 6734136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150