JP2018113622A - 画像処理装置、画像処理システム、及び、画像処理方法 - Google Patents

画像処理装置、画像処理システム、及び、画像処理方法 Download PDF

Info

Publication number
JP2018113622A
JP2018113622A JP2017003584A JP2017003584A JP2018113622A JP 2018113622 A JP2018113622 A JP 2018113622A JP 2017003584 A JP2017003584 A JP 2017003584A JP 2017003584 A JP2017003584 A JP 2017003584A JP 2018113622 A JP2018113622 A JP 2018113622A
Authority
JP
Japan
Prior art keywords
image
vehicle
image processing
virtual viewpoint
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017003584A
Other languages
English (en)
Other versions
JP6855254B2 (ja
Inventor
宏 海老原
Hiroshi Ebihara
宏 海老原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017003584A priority Critical patent/JP6855254B2/ja
Publication of JP2018113622A publication Critical patent/JP2018113622A/ja
Application granted granted Critical
Publication of JP6855254B2 publication Critical patent/JP6855254B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車載カメラによる撮影画像に対するマスク領域の設定を容易に行うことができる技術を提供する。【解決手段】車両において用いられる画像処理装置は、前記車両に搭載されるカメラによる撮影画像に基づいて、仮想視点から見た前記車両の周辺を示す仮想視点画像を生成する画像生成部と、前記仮想視点画像に基づいて、前記カメラの撮影画像中において所定の処理に使用しない領域であるマスク領域を設定する設定部と、を備える。【選択図】図1

Description

本発明は、画像処理装置、画像処理システム、及び、画像処理方法に関する。
従来、撮影された画像データから移動物体を検出するシステムが知られる。このようなシステムでは、移動物体の検出が行われない領域が、マスク領域として予め指定される。そして、当該マスク領域を除く領域に対して、移動物体の検出処理が行われる(例えば特許文献1参照)。
特開2009−122990号公報
ところで、車載カメラを用いて、車両周辺の移動物体の検出や駐車枠の検出を行う画像処理システムが知られている。このような画像処理システムにおいて、カメラによる撮影画像内に映り込む車両のボディは、移動物体や駐車枠等の検出に不要な領域である。また、車両のボディに映り込んだ背景等によって、誤検出が生じるおそれがある。このために、撮影画像内における車両のボディが映り込む領域は、マスク領域とされ、検出処理に使用されないことが好ましい。
車両の形状は、車両の種類やグレードによって異なる。また、車両に対するカメラの取付けには、ばらつきがある。このために、撮影画像への車両のボディの映り込みは、車両ごとに異なる。したがって、撮影画像内のどの領域がマスク領域として設定されるべきかについては、車両ごとに決められることが好ましい。しかしながら、車両ごとにマスク領域を設定することは、作業負担が大きく、現実的ではない。
本発明は、上記の課題に鑑み、車載カメラによる撮影画像に対するマスク領域の設定を容易に行うことができる技術を提供することを目的とする。
本発明に係る画像処理装置は、車両において用いられる画像処理装置であって、前記車両に搭載されるカメラによる撮影画像に基づいて、仮想視点から見た前記車両の周辺を示す仮想視点画像を生成する画像生成部と、前記仮想視点画像に基づいて、前記カメラの撮影画像中において所定の処理に使用しない領域であるマスク領域を設定する設定部と、を備える構成(第1の構成)である。
また、上記第1の構成の画像処理装置において、前記仮想視点画像中には、前記車両の周辺を表示しない死角領域が設定され、前記設定部は、前記死角領域に基づいて前記マスク領域を設定する構成(第2の構成)であることが好ましい。
また、上記第2の構成の画像処理装置において、前記設定部は、前記死角領域の境界上の複数点のそれぞれについて、前記カメラの撮影画像における対応座標位置を抽出し、複数の前記対応座標位置から導出される近似曲線に基づいて前記マスク領域を設定する構成(第3の構成)であることが好ましい。
また、上記第3の構成の画像処理装置において、前記設定部は、前記死角領域の境界上の点に加えて、前記境界の延長線上の点についても前記対応座標位置を抽出して前記マスク領域を設定する構成(第4の構成)であってよい。
また、上記第1から第4のいずれかの構成の画像処理装置において、前記設定部は、前記仮想視点の視点位置が前記車両の真上、かつ、視線方向が真下である場合の前記仮想視点画像に基づいて前記マスク領域を設定する構成(第5の構成)であることが好ましい。
また、上記第1から第5のいずれかの構成の画像処理装置において、前記所定の処理は、前記カメラによる撮影画像に基づいて検出対象を検出する処理であり、前記カメラの撮影画像に前記マスク領域によるマスクを行って前記検出対象を検出する検出部を更に備える構成(第6の構成)であってよい。
本発明に係る画像処理システムは、上記第1から第6のいずれかの構成の画像処理装置と、前記カメラと、を備える構成(第7の構成)である。
本発明に係る画像処理方法は、処理装置による画像処理方法であって、車両に搭載されるカメラによる撮影画像に基づいて、仮想視点から見た前記車両の周辺を示す仮想視点画像を生成する画像生成工程と、前記仮想視点画像に基づいて、前記カメラの撮影画像中において所定の処理に使用しない領域であるマスク領域を設定するマスク領域設定工程と、を備える構成(第8の構成)である。
本発明によれば、車載カメラによる撮影画像に対するマスク領域の設定を容易に行える技術を提供することができる。
車両周辺監視システムの構成を示すブロック図 4つのカメラが配置された車両を示す模式図 画像生成部が仮想視点画像を生成する手法を説明するための図 仮想視点画像における車両の像が配置される部分を拡大して示した図 マスク領域の設定手順を示すフローチャート 図5のステップS1を説明するための図 図5のステップS2を説明するための図 図5のステップS3を説明するための図 図5のステップS4を説明するための図
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」とする。
<1.システムの構成>
図1は、本発明の実施の形態に係る車両周辺監視システムSYS1の構成を示すブロック図である。車両周辺監視システムSYS1は、車両ごとに搭載される。車両周辺監視システムSYS1は、当該システムを搭載する車両の周辺状況を監視する機能を有する。図1に示すように、車両監視システムSYS1は、画像処理システムSYS2と、表示装置3と、を備える。
画像処理システムSYS2は、車両の周辺を撮影して画像を生成し、生成した画像を表示装置3に出力する機能を有する。また、画像処理システムSYS2は、車両の周辺を撮影して得られた画像に基づいて、検出対象を検出する機能も有する。本実施の形態では、検出対象には駐車枠が含まれる。なお、これは例示であり、検出対象には、移動体等が含まれてよい。検出した駐車枠情報は、例えば駐車支援等を行う運転支援装置(不図示)によって使用される。画像処理システムSYS2は、車両の周囲を撮影する撮影部1と、画像処理装置2とを備える。
撮影部1は、車両に搭載される4つのカメラ11〜14を備える。すなわち、画像処理システムSYS2は、車両に搭載されるカメラ11〜14を備える。図2は、4つのカメラ11〜14が配置された車両4を示す模式図である。本実施の形態において、車両4は自動車である。撮影部1が備えるカメラの数は例示であり、カメラの数は適宜変更されてよい。各カメラ11〜14は、有線又は無線で画像処理装置2に接続されており、撮影画像を画像処理装置2に送信する。
図2に示すように、カメラ11は車両4の前端に設けられる。このため、カメラ11をフロントカメラ11とも呼ぶ。フロントカメラ11の光軸11aは平面視で車両4の前後方向に沿っている。フロントカメラ11は車両4の前方向を撮影する。カメラ14は車両4の後端に設けられる。このため、カメラ14をバックカメラ14とも呼ぶ。バックカメラ14の光軸14aは平面視で車両4の前後方向に沿っている。バックカメラ14は車両4の後方向を撮影する。フロントカメラ11及びバックカメラ14の取付け位置は、車両4の左右中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
カメラ12は車両4の左側ドアミラー41に設けられる。このため、カメラ12を左サイドカメラ12とも呼ぶ。左サイドカメラ12の光軸12aは平面視で車両4の左右方向に沿っている。左サイドカメラ12は車両4の左方向を撮影する。カメラ13は車両4の右側ドアミラー42に設けられる。このため、カメラ13を右サイドカメラ13とも呼ぶ。右サイドカメラ13の光軸13aは平面視で車両4の左右方向に沿っている。右サイドカメラ13は車両4の右方向を撮影する。
各カメラ11〜14のレンズとしては、例えば魚眼レンズが使用される。各カメラ11〜14の水平方向の画角θは180度以上である。このため、4つのカメラ11〜14を利用することで、車両4の水平方向における全周囲を撮影することが可能になっている。
画像処理装置2は、撮影部1によって撮影された撮影画像を取得して、当該撮影画像の処理を行う。また、画像処理装置2は、撮影画像を処理して得られた処理画像を表示装置3に出力する。また、画像処理装置2は、撮影画像を処理して、撮影画像中から検出対象(例えば駐車枠)を検出する。画像処理装置2は、車両4の所定の位置に配置される。すなわち、画像処理装置2は、車両において用いられる。画像処理装置2の詳細については後述する。
表示装置3は、例えばタッチパネル等の操作機能を有する液晶等のディスプレイを備え、画像処理システムによる処理で得られた表示画像を表示する。表示装置3は、車両4の乗員(代表的には運転手)がディスプレイの表示画面を視認できる位置に設けられる。例えば、表示装置3は、車両4のインストルメントパネルに設置される。
<2.画像処理装置の構成>
画像処理装置2は、ECU(Electronic Control Unit)として構成される。図1に示すように、画像処理装置2は、画像生成部21と、制御部22と、通信部23と、記憶部24と、を備える。
画像生成部21は、撮影部1で取得された撮影画像を処理して表示用画像を生成する。本実施の形態では、画像生成部21は、各種の画像処理が可能なハードウェア回路として構成されている。本実施の形態では、画像生成部21は、車両4に搭載されるカメラ11〜14による撮影画像に基づいて、仮想視点から見た車両4の周辺を示す仮想視点画像を生成する。仮想視点画像を生成する手法の詳細については後述する。
画像生成部21は、カメラ11〜14による撮影画像を表示用に調整する。詳細には、画像生成部21は、撮影画像の明るさやコントラスト等の画質調整や、表示の際に自然となるように画像の歪み補正を行う。また、画像生成部21は、表示用に調整された撮影画像、及び、上述の仮想視点画像に基づいて、運転者等に提供する表示用画像を生成する。生成された表示用画像は、通信部23によって表示装置3に出力され、表示装置3の表示画面に表示される。
制御部22は、画像処理装置2の全体を制御する。制御部22は、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータである。本実施の形態では、制御部22は、画像制御部221と、表示制御部222と、設定部223と、検出部224と、を備える。制御部22が備えるこれらの各部は、例えばROMに格納されるプログラムに従ってCPUが演算処理を行うことによって実現される機能である。
画像制御部221は、画像生成部21によって実行される画像処理を制御する。例えば、画像制御部221は、画像生成部21に対して、仮想視点画像を生成するために必要となる各種のパラメータ等の指示を行う。
表示制御部222は、主に画像処理装置2の処理によって得られた画像情報を表示装置3で表示させるための制御を行う。例えば、表示制御部222は、画像生成部21で生成された仮想視点画像を表示装置3に出力する際の制御を行う。
設定部223は、仮想視点画像に基づいて、カメラ11〜14の撮影画像中において所定の処理に使用しない領域であるマスク領域を設定する。本実施の形態では、所定の処理は、カメラ11〜14による撮影画像に基づいて検出対象を検出する処理である。上述のように、本実施の形態では、検出対象には、駐車枠が含まれる。
また、詳細には、マスク領域は、カメラ11〜14による撮影画像中において、車両4のボディが映り込むことが想定される領域である。車両4のボディが映り込む領域は、駐車枠や移動体等の検出には不要な領域であるためにマスク領域とされる。本実施の形態によれば、仮想視点画像に関する既存の技術を利用して、単一のカメラの撮影画像に対するマスク領域を設定することができる。このために、単一のカメラの撮影画像に対してマスク領域を設定する手法について新たなロジックの開発を行う必要がなく、開発コストの削減を図ることができる。
なお、本実施の形態では、4つのカメラ11〜14の全てに対してマスク領域の設定が行われるが、これは例示であり、一部のカメラに対してのみマスク領域の設定が行われてもよい。例えば、カメラで撮影した撮影画像から駐車枠を検出することのみが目的である場合、左右のサイドカメラ12、13及びバックカメラ14に対してマスク領域が設定される構成としてよい。マスク領域の設定手法の詳細については後述する。
検出部224は、カメラ11〜14の撮影画像にマスク領域によるマスクを行って検出対象を検出する。 本実施の形態では、設定部223によって、各カメラ11〜14の撮影画像に対するマスク領域が設定される。このために、検出部224は、不要な領域を除外して検出対象の検出処理を行うことができる。また、撮影画像を用いて検出対象を検出する際に不要な部分が予め除外されているために、検出部224による誤検出の発生確率を低減することができる。
検出部224は、特に限定する趣旨ではないが、例えばサイドカメラ12、13で撮影される撮影画像に基づいて駐車枠の検出を行う。例えば、サイドカメラ12、13の代わりにバックカメラ14が用いられてもよいし、サイドカメラ12、13とバックカメラ14との両方が用いられてもよい。駐車枠の検出処理は、適宜実施される。
検出部224は、カメラ12、13等による撮影画像中の輝度変化に基づいて、車両の駐車領域を区画する駐車枠線の検出を行う。駐車枠線は、一般的に白色又は黄色等の明るい色彩が施されるために、画像中における輝度が高い。このために、駐車枠線の輝度と駐車場の路面表面の輝度との間に輝度差が発生する。当該輝度差に基づく輝度変化は一定範囲になるために、輝度変化が一定範囲となるエッジを検出することにより、駐車枠線の検出を行うことができる。なお、「エッジ」は、画像中において、画素間の輝度が所定以上の大きさで変化する部分を指す。
検出部224は、検出された2つの駐車枠線のエッジ間の距離が所定の距離であると判断される場合に、検出された2つの駐車枠線間の領域を駐車枠として認識する。所定の距離とは、例えば、駐車場に関する法令等で規定される一般公共用の標準的な駐車枠の幅であり、2.5mである。本実施の形態では、車両4のボディが映り込む可能性がある部分がマスクされた状態で駐車枠線の検出を行い、駐車枠の検出が行われる。このために、効率良く駐車枠の検出を行うことができる。また、車両4のボディに映り込んだ背景等によって駐車枠の誤検出を行う可能性を低減することができる。
通信部23は、表示装置3との間で通信を行う。通信部23は、例えば、画像生成部21で生成された仮想視点画像を表示装置3に出力する。また、通信部23は、運転者等が表示装置3の操作を行った場合に操作部(タッチパネル等)から送信される信号を受信する。
記憶部24は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部24は、例えば、ファームウェアとしてのプログラム、画像生成部21が仮想視点画像を生成するための各種のデータを記憶する。また、記憶部24は、設定部223及び検出部224が処理を実行するために必要となる各種のデータを記憶する。
<3.仮想視点画像の生成処理>
画像生成部21が、仮想視点から見た車両4の周辺の様子を示す仮想視点画像を生成する手法について説明する。図3は、画像生成部21が仮想視点画像を生成する手法を説明するための図である。画像生成部21は、仮想視点画像の生成に仮想の立体的な投影面TSを用いることで、現実に近い臨場感のある仮想視点画像を生成する。
フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及び、バックカメラ14によって、車両4の前方、左側方、右側方、及び、後方をそれぞれ示す4つの撮影画像P11〜P14が同時に取得される。これら4つの撮影画像P11〜P14には、車両4の全周囲のデータが含まれている。画像生成部21は、これら4つの撮影画像P11〜P14を取得する。
画像生成部21は、これら4つの撮影画像P11〜P14に含まれるデータ(画素の値)を、仮想的な三次元空間における立体的な曲面である投影面TSに投影する。投影面TSは、例えば、略半球状(お椀形状)をしており、その中心部(お椀の底部分)が車両4の位置として定められている。撮影画像P11〜P14に含まれる各画素の位置と、投影面TSの各画素の位置とは予め対応関係が定められている。この対応関係を示すテーブルデータは、記憶部24に記憶されている。投影面TSの各画素の値は、この対応関係と、撮影画像P11〜P14に含まれる各画素の値とに基づいて決定できる。
次に、画像生成部21は、画像制御部221の制御により、三次元空間に対して仮想視点VPを設定する。仮想視点VPは、視点位置と視線方向とで規定される。画像生成部21は、任意の視点位置、かつ、任意の視線方向の仮想視点VPを三次元空間に設定できる。画像生成部21は、設定された仮想視点VPに応じて投影面TSにおける必要な領域を切り出す。これにより、任意の仮想視点VPから見た仮想視点画像が生成される。
例えば、図3に示すように、視点位置を車両4の真上、視線方向を直下とした仮想視点VPaを想定した場合、車両4及び車両4の周辺を俯瞰する仮想視点画像(俯瞰画像)CPaを生成できる。また、視点位置を車両4の左後方、視線方向を車両4の前方とした仮想視点VPbを想定した場合、車両4の左後方から見た車両4及び車両4の周辺を示す仮想視点画像CPbを生成できる。
なお、仮想視点画像CP中に示す車両4の像は、予めビットマップなどのデータとして用意され、記憶部24に記憶されている。仮想視点画像の生成の際には、当該仮想視点画像の仮想視点VPの視点位置と視線方向とに応じた形状の車両4の像のデータが読み出されて、仮想視点画像中に重畳される。
図4は、仮想視点画像における車両4の像が配置される部分を拡大して示した図である。なお、図4では、上述の仮想視点VPaによる仮想視点画像を想定している。図4に示すように、仮想視点画像中には、車両4の周辺を表示しない死角領域5が設定されている。図4において、死角領域5は斜線を施した部分である。本実施の形態において、死角領域5は、車両4のボディが映り込む可能性がある領域である。詳細には、死角領域5の外縁(境界)は、図4に示すように矩形状である。死角領域5は、表示装置3においては、例えば黒色等で表示される。
死角領域5は、車両4のボディ形状及びカメラ11〜14の搭載位置によって決まる。このために、死角領域5は、例えば車種ごと、又は、グレードごとに設定することができる。本実施の形態では、死角領域5は、カメラ11〜14の取付誤差及びキャリブレーション誤差を考慮して設定されている。詳細には、死角領域5は、誤差によって車両4のボディが映り込む範囲が最大となる場合でも、車両4のボディ画像が仮想視点画像中に表示されないように設定されている。死角領域5に関するデータは、記憶部24に記憶されている。死角領域5は、仮想視点画像の生成の際に、当該仮想視点画像の仮想視点VPの視点位置と視線方向とに応じて仮想視点画像中に重畳される。
<4.マスク領域の設定処理>
本実施の形態においては、設定部223は、仮想視点画像中に設定される死角領域5に基づいてマスク領域を設定する。マスク領域は、各カメラ11〜14に対して設定される。マスク領域の設定は、車両4にカメラ11〜14を取り付けた後に行われる。マスク領域の設定は、例えば、車両の組み立て工場や、車両を販売するディーラ等で行われる。図5は、本実施の形態におけるマスク領域の設定手順を示すフローチャートである。図5を参照しながら、マスク領域の設定処理について説明する。
設定部223は、仮想視点画像中の死角領域5の境界上の複数点を抽出する(ステップS1)。本実施の形態において、死角領域5の境界上とは、死角領域5の外縁(外周)上のことである。本実施の形態では、設定部223は、仮想視点の視点位置が車両4の真上、かつ、視線方向が真下である場合の仮想視点画像に基づいてマスク領域を設定する。マスク領域を設定するために用いる仮想視点画像は、別の仮想視点を想定したものであってもよい。ただし、本実施の形態の構成の仮想視点画像を利用することにより、いずれのカメラ11〜14に対しても同じ仮想視点画像を利用することができる。このために、処理効率を向上することができる。
図6は、図5のステップS1を説明するための図である。図6は、バックカメラ14用のマスク領域を設定する場合を想定した図である。バックカメラ14用のマスク領域の設定を行うにあたって、設定部223は、死角領域5における車両後方側の短辺5B上の複数点gを抽出する。例えば、設定部223は、一定の間隔で短辺5B上の点gを抽出する。一定の間隔は、適宜設定すればよい。例えば100mm間隔等であってよいが、間隔を細かく設定することによって、後述の近似曲線をより正確に取得することができる。本実施の形態では、死角領域5の境界上に加えて、境界の延長線上の点も抽出する。詳細には、図6に示すように、設定部223は、短辺5Bを左右方向に延長した延長線5E上の点gについても抽出する。ただし、これは例示であり、短辺5B上の点gだけでもよい。また、本実施の形態では、短辺5Bから左右に延びる延長線5E上の点が抽出されているが、左右いずれか一方に延びる延長線上の点だけが抽出されてもよい。
なお、フロントカメラ11用のマスク領域を設定する場合には、設定部223は、死角領域5における車両前方側の短辺5F上の複数点を抽出する。短辺5Fの延長線上の点も抽出されてよい。左サイドカメラ12用のマスク領域を設定する場合には、設定部223は、死角領域5における車両左方側の長辺5L上の複数点を抽出する。長辺5Lの延長線上の点も抽出されてよい。右サイドカメラ13用のマスク領域を設定する場合には、設定部223は、死角領域5における車両右方側の長辺5R上の複数点を抽出する。長辺5Rの延長線上の点も抽出されてよい。
次に、設定部223は、死角領域5の境界上の複数点のそれぞれについて、カメラ11〜14の撮影画像における対応座標位置を抽出する(ステップS2)。本実施の形態では、死角領域5の境界上の点に加えて、境界の延長線上の点についても対応座標位置を抽出する。
図7は、図5のステップS2を説明するための図である。図7は、バックカメラ14用のマスク領域を設定する場合を想定した図である。設定部223は、バックカメラ14用のマスク領域を設定する場合には、短辺5B上の複数点gのそれぞれについて、バックカメラ14の撮影画像における対応座標位置Gを抽出する。また、設定部223は、短辺5Bの延長線上の点gについても、バックカメラ14の撮影画像における対応座標位置Gを抽出する。これにより、図7に示すように、複数の対応座標位置Gが得られる。なお、図6と図7は、いずれも模式図であり、抽出点の数は特に対応させていない。
詳細には、設定部223は、仮想視点VPの視点位置及び視線方向に基づいて、仮想視点画像から抽出した複数点gの投影面TSおける座標位置を求める。そして、設定部223は、投影面TSの座標位置と、バックカメラ14の撮影画像の座標位置との対応関係が示されたデータ(記憶部24に記憶される)に基づいて、仮想視点画像から抽出した複数点gのそれぞれについて、バックカメラ14の撮影画像における対応座標位置Gを求める。
なお、仮想視点画像から抽出した複数点のそれぞれに対して、上述の対応座標位置を求める処理は、フロントカメラ11、左サイドカメラ12、及び、右サイドカメラ13の場合についても、バックカメラ14の場合と同様である。このため、詳細な説明は省略する。
設定部223は、カメラ11〜14の撮影画像上において、複数の対応座標位置から近似曲線を導出する(ステップS3)。図8は、図5のステップS3を説明するための図である。図8は、バックカメラ14用のマスク領域を設定する場合を想定した図である。図8に示すように、設定部223は、複数の対応座標位置Gに基づいて曲線近似を行って近似曲線Lを取得する。曲線近似の手法としては、特に限定する趣旨ではないが、例えば最小二乗法が用いられる。
本実施の形態では、死角領域5の境界上の点だけでなく、前述の境界の延長線上の点についても利用して、カメラ11〜14の撮影画像における対応座標位置が抽出される。このために、広い範囲に亘って存在する複数の座標位置を利用して曲線近似を行えるために、より正確な近似曲線を得ることができる。
なお、近似曲線を求める処理は、フロントカメラ11、左サイドカメラ12、及び、右サイドカメラ13の場合についても、バックカメラ14の場合と同様である。このため、詳細な説明は省略する。
設定部223は、近似曲線に基づいてマスク領域を設定する(ステップS4)。図9は、図5のステップS4を説明するための図である。図9は、バックカメラ14用のマスク領域を設定する場合を想定した図である。バックカメラ14の撮影画像において、車両4のボディが映り込む大体の位置は予め把握できている。本実施の形態では、撮影画像の下側に車両4が映り込む。このため、設定部223は、近似曲線Lの下側の領域をマスク領域Rとして設定する。
なお、設定部223は、マスク領域Rを設定すると、設定したマスク領域を記憶部24に記憶する。すなわち、マスク領域Rを一度生成すれば、その後は、再度マスク領域Rの設定を行わずに、記憶部24からマスク領域Rに関する情報を読み出して使用することができる。
なお、マスク領域を設定する処理は、フロントカメラ11、左サイドカメラ12、及び、右サイドカメラ13の場合についても、バックカメラ14の場合と同様である。このため、詳細な説明は省略する。これらのカメラ11〜13用のマスク領域についても記憶部24に記憶される。
本実施の形態によれば、仮想視点画像において設定される死角領域5から、各カメラ11〜14の撮影画像において車両4のボディが映り込む領域を推定してマスク領域を設定することができる。車両4のボディが映り込む可能性がある領域として設定される死角領域5は、取付誤差及びキャリブレーション誤差を考慮して設定されている。このために、本実施の形態によれば、起り得るばらつきに適切に対応したマスク領域の設定を行うことができる。すなわち、本実施の形態によれば、マスク領域によってマスクした撮影画像に車両4のボディが映り込んだ領域が残ることを避けられる。また、本実施の形態によれば、車両一台、一台に対して、個別にカメラの取付誤差等を考慮しながらマスク領域の算出を行う必要がなく、作業負担を低減することができる。本実施の形態によれば、同一形状のボディを有する車両4に対しては、同じ処理でマスク領域の設定を行うことができる。
また、本実施の形態によれば、仮想視点画像における死角領域5に関する情報を単一のカメラ11〜14の画像上に落とし込み、曲線近似を利用してマスク領域を設定する。既存の技術を流用してマスク領域を設定することができるために、単一のカメラごとにマスク領域を設定するための新たなロジックを開発する必要がなく、開発コストの削減を図ることができる。
また、本実施の形態の画像処理システムでは、各カメラ11〜14用のマスク領域を設定した後は、その後、一々マスク領域の設定処理を行うことなく、先に設定したマスク領域情報を記憶部24から読み出すことによって、検出部224による検出処理を行うことができる。検出部224は、記憶部24に記憶されるマスク領域情報によってカメラ11〜14の撮影画像にマスク処理を行って、当該マスク処理が施された画像に基づいて検出対象(本実施の形態では駐車枠)の検出処理を行うことができる。なお、マスク処理では、例えば、マスク領域と設定された部分の画素値が0とされる。
<<3.留意点>>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
例えば、以上に示した実施形態では、画像処理装置2が検出部224を備える構成としたが、これは例示である。画像処理部装置は、検出部を備えなくてもよい。この場合には、画像処理装置とは別に、検出対象を検出する検出装置を設け、両装置が有線又は無線でつながれて情報のやり取りを行うシステムが採用されてよい。
また、以上に示した実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能のうちの少なくとも一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの少なくとも一部は、ソフトウェア的に実現されてもよい。
2・・・画像処理装置
4・・・車両
5・・・死角領域
11・・・フロントカメラ
12・・・左サイドカメラ
13・・・右サイドカメラ
14・・・バックカメラ
21・・・画像生成部
223・・・設定部
224・・・検出部
G・・・対応座標位置
L・・・近似曲線
R・・・マスク領域
SYS2・・・画像処理システム

Claims (8)

  1. 車両において用いられる画像処理装置であって、
    前記車両に搭載されるカメラによる撮影画像に基づいて、仮想視点から見た前記車両の周辺を示す仮想視点画像を生成する画像生成部と、
    前記仮想視点画像に基づいて、前記カメラの撮影画像中において所定の処理に使用しない領域であるマスク領域を設定する設定部と、
    を備える画像処理装置。
  2. 前記仮想視点画像中には、前記車両の周辺を表示しない死角領域が設定され、
    前記設定部は、前記死角領域に基づいて前記マスク領域を設定する、請求項1に記載の画像処理装置。
  3. 前記設定部は、前記死角領域の境界上の複数点のそれぞれについて、前記カメラの撮影画像における対応座標位置を抽出し、複数の前記対応座標位置から導出される近似曲線に基づいて前記マスク領域を設定する、請求項2に記載の画像処理装置。
  4. 前記設定部は、前記死角領域の境界上の点に加えて、前記境界の延長線上の点についても前記対応座標位置を抽出して前記マスク領域を設定する、請求項3に記載の画像処理装置。
  5. 前記設定部は、前記仮想視点の視点位置が前記車両の真上、かつ、視線方向が真下である場合の前記仮想視点画像に基づいて前記マスク領域を設定する、請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記所定の処理は、前記カメラによる撮影画像に基づいて検出対象を検出する処理であり、
    前記カメラの撮影画像に前記マスク領域によるマスクを行って前記検出対象を検出する検出部を更に備える、請求項1から5のいずれか1項に記載の画像処理装置。
  7. 請求項1から6のいずれか1項に記載の画像処理装置と、
    前記カメラと、
    を備える、画像処理システム。
  8. 処理装置による画像処理方法であって、
    車両に搭載されるカメラによる撮影画像に基づいて、仮想視点から見た前記車両の周辺を示す仮想視点画像を生成する画像生成工程と、
    前記仮想視点画像に基づいて、前記カメラの撮影画像中において所定の処理に使用しない領域であるマスク領域を設定するマスク領域設定工程と、
    を備える画像処理方法。
JP2017003584A 2017-01-12 2017-01-12 画像処理装置、画像処理システム、及び、画像処理方法 Active JP6855254B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017003584A JP6855254B2 (ja) 2017-01-12 2017-01-12 画像処理装置、画像処理システム、及び、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017003584A JP6855254B2 (ja) 2017-01-12 2017-01-12 画像処理装置、画像処理システム、及び、画像処理方法

Publications (2)

Publication Number Publication Date
JP2018113622A true JP2018113622A (ja) 2018-07-19
JP6855254B2 JP6855254B2 (ja) 2021-04-07

Family

ID=62912536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017003584A Active JP6855254B2 (ja) 2017-01-12 2017-01-12 画像処理装置、画像処理システム、及び、画像処理方法

Country Status (1)

Country Link
JP (1) JP6855254B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020057203A (ja) * 2018-10-02 2020-04-09 トヨタ自動車株式会社 画像処理装置、プログラム、情報処理システム、及び制御方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105678A (ja) * 1996-09-26 1998-04-24 Toshiba Corp 画像処理装置及び画像処理方法
WO2000064175A1 (fr) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Dispositif de traitement d'images et systeme de surveillance
JP2005349890A (ja) * 2004-06-09 2005-12-22 Alpine Electronics Inc 車両周辺画像発生装置
JP2009223562A (ja) * 2008-03-14 2009-10-01 Nec Corp 画像処理装置
JP2010114618A (ja) * 2008-11-06 2010-05-20 Clarion Co Ltd 車両周辺監視システム
JP2010183265A (ja) * 2009-02-04 2010-08-19 Alpine Electronics Inc 画像表示装置及びそのカメラ取り付け角度算出方法
JP2012064096A (ja) * 2010-09-17 2012-03-29 Nissan Motor Co Ltd 車両用画像表示装置
JP2015210602A (ja) * 2014-04-24 2015-11-24 日立建機株式会社 作業機械の周囲監視装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105678A (ja) * 1996-09-26 1998-04-24 Toshiba Corp 画像処理装置及び画像処理方法
WO2000064175A1 (fr) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Dispositif de traitement d'images et systeme de surveillance
JP2005349890A (ja) * 2004-06-09 2005-12-22 Alpine Electronics Inc 車両周辺画像発生装置
JP2009223562A (ja) * 2008-03-14 2009-10-01 Nec Corp 画像処理装置
JP2010114618A (ja) * 2008-11-06 2010-05-20 Clarion Co Ltd 車両周辺監視システム
JP2010183265A (ja) * 2009-02-04 2010-08-19 Alpine Electronics Inc 画像表示装置及びそのカメラ取り付け角度算出方法
JP2012064096A (ja) * 2010-09-17 2012-03-29 Nissan Motor Co Ltd 車両用画像表示装置
JP2015210602A (ja) * 2014-04-24 2015-11-24 日立建機株式会社 作業機械の周囲監視装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020057203A (ja) * 2018-10-02 2020-04-09 トヨタ自動車株式会社 画像処理装置、プログラム、情報処理システム、及び制御方法
JP7095537B2 (ja) 2018-10-02 2022-07-05 トヨタ自動車株式会社 画像処理装置、プログラム、情報処理システム、及び制御方法

Also Published As

Publication number Publication date
JP6855254B2 (ja) 2021-04-07

Similar Documents

Publication Publication Date Title
JP6458439B2 (ja) 車載カメラ較正装置、画像生成装置、車載カメラ較正方法、画像生成方法
US10183621B2 (en) Vehicular image processing apparatus and vehicular image processing system
JP5341789B2 (ja) パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
JP4690476B2 (ja) 車載カメラの校正装置
US11336839B2 (en) Image display apparatus
US10007853B2 (en) Image generation device for monitoring surroundings of vehicle
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP5011049B2 (ja) 画像処理システム
JP2009017020A (ja) 画像処理装置及び表示画像生成方法
JP2010085186A (ja) 車載カメラの校正装置
US10099617B2 (en) Driving assistance device and driving assistance method
CN112224132A (zh) 一种车用全景环视障碍物预警方法
JP2008131177A (ja) 車載カメラの校正装置、校正方法、並びにこの校正方法を用いた車両の生産方法
US9798936B2 (en) System and method for detecting obstacles using a single camera
US9162621B2 (en) Parking support apparatus
JP6614754B2 (ja) 車両上に配置された全方向カメラからの全方向画像をレクティリニア画像に変換する方法
JP2013168063A (ja) 画像処理装置、画像表示システム及び画像処理方法
JP2007150658A (ja) 車載周辺画像表示装置
JP2008085710A (ja) 運転支援システム
JP5959311B2 (ja) データ導出装置、及び、データ導出方法
JP2014165810A (ja) パラメータ取得装置、パラメータ取得方法及びプログラム
KR20160050439A (ko) 차량용 후방 카메라의 영상 보정 방법
JP5208790B2 (ja) 画像処理装置、画像処理方法ならびにプログラム
WO2019053929A1 (ja) 車両用装置、キャリブレーション結果判定システム、および、キャリブレーション結果判定方法、ならびに、プログラム
JP6855254B2 (ja) 画像処理装置、画像処理システム、及び、画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210317

R150 Certificate of patent or registration of utility model

Ref document number: 6855254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250