JP6523801B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6523801B2
JP6523801B2 JP2015116420A JP2015116420A JP6523801B2 JP 6523801 B2 JP6523801 B2 JP 6523801B2 JP 2015116420 A JP2015116420 A JP 2015116420A JP 2015116420 A JP2015116420 A JP 2015116420A JP 6523801 B2 JP6523801 B2 JP 6523801B2
Authority
JP
Japan
Prior art keywords
image
line
vehicle width
vehicle
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015116420A
Other languages
English (en)
Other versions
JP2017001493A (ja
Inventor
周樹 村角
周樹 村角
裕生 松本
裕生 松本
茂人 竹内
茂人 竹内
明英 藤尾
明英 藤尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015116420A priority Critical patent/JP6523801B2/ja
Publication of JP2017001493A publication Critical patent/JP2017001493A/ja
Application granted granted Critical
Publication of JP6523801B2 publication Critical patent/JP6523801B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置および画像処理方法に関する。
従来、車両の進行軌跡を予測し、予測線をディスプレイに表示させる装置が知られている。かかる装置では、予測線とともに車幅延長線もディスプレイに表示させている(例えば、特許文献1参照)。
特開2007−76496号公報
しかしながら、従来の装置では、単に予測線および車幅延長線をディスプレイに表示させているに過ぎず、例えば予測線および車幅延長線が重なって表示される場合に、運転者にとって予測線および車幅延長線がどのように見えているのか考慮されていなかった。そのため、運転者に対して、予測線や車幅延長線と言った車両に関する情報を適切に表示できていない可能性があった。
本発明は、上記に鑑みてなされたものであって、運転者に対して車両に関する情報を適切に表示できる画像処理装置および画像処理方法を提供することを目的とする。
上記課題を解決し、目的を達成するために、本発明の画像処理装置は、選択部と、画像処理部と、判定部とを備える。選択部は、車両の車幅の延長線を示す車幅線の画像である車幅画像と前記車両の予測される進行方向を示す予測線の画像である予測画像とを、前記車幅線と前記予測線との重複度に応じて選択する。画像処理部は、撮像装置から入力される撮像画像に前記選択部によって選択された前記車幅画像および前記予測画像を重畳した合成画像を生成する。判定部は、前記重複度が所定の閾値以上であるか否かを判定する。前記車幅画像および前記予測画像のうち一方を前面に表示する前面画像とするとともに他方を前記前面画像の背面に表示する背面画像としたときに、選択部は、前記重複度が前記閾値以上である場合に、前記前面画像として前記背面画像が視認できる画像を選択する。
本発明によれば、運転者に対して車両に関する情報を適切に表示できる画像処理装置および画像処理方法を提供することができる。
図1は、実施形態に係る画像処理方法を示す説明図である。 図2は、実施形態に係る周辺監視システムの構成例を示す図である。 図3は、実施形態に係る撮像装置の配置例を示す図である。 図4は、実施形態に係る車幅画像の画像群の一例を示す図である。 図5は、実施形態に係る予測画像の画像群の一例を示す図である。 図6は、実施形態に係る画像表示処理を示すフローチャートである。 図7は、実施形態に係る画像処理装置の変形例を説明する図である。 図8は、実施形態の変形例に係る画像処理部が生成する合成画像の一例を示す図である。
以下、添付図面を参照して、本願の開示する画像処理装置および画像処理方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
<1.画像処理方法>
図1は、本発明の実施形態に係る画像処理方法を示す説明図である。かかる画像処理方法は、例えば車両Cに搭載される画像処理装置10によって実行される。
画像処理装置10は、車両Cの車幅の延長線を示す車幅線L10と、車両Cの予測される進行方向を示す予測線L20との重複度に応じて、車幅線L10の車幅画像P10および予測線L20の予測画像P20を選択する。
次に、画像処理装置10は、車両Cに搭載された撮像装置(図示せず)から入力される撮像画像に、車幅画像P10および予測画像P20を重畳した合成画像P3を表示部(図示せず)に表示する。
具体的に、画像処理装置10は、撮像画像に基づいて車両Cの進行方向を予測する。車両Cの進行方向は、例えば撮像装置が所定間隔で撮像した複数の撮像画像の時間変化に基づいて予測される。あるいは、車両Cの進行方向は、例えば車両Cの車輪の舵角に応じて予測される。
画像処理装置10は、予測した進行方向に沿って車両Cが移動した場合の軌跡線を予測線L20として算出する。ここで、予測線L20は、所定の幅と長さを有する2本の線であり、車両Cの進行方向に応じて直線あるいは曲線となる。例えば車両Cが直進している場合、予測線L20は直線となり、車両Cが旋回している場合、予測線L20は、旋回角度に応じた曲率を有する曲線となる。
予測線L20に含まれる2本の直線は、車両Cの車幅と同じ間隔をあけて配置される。このように、予測線L20は、車両Cの進行方向に応じて算出される車両Cの予測軌跡を示す線である。
一方、車幅線L10は、所定の幅と長さを有する2本の直線であり、かかる2本の直線は、車両Cの車幅と同じ間隔をあけて配置される。なお、車幅線L10の所定の幅は、予測線L20の幅と同じ長さであるものとする。かかる車幅線L10は、車両Cによってあらかじめ決定される線である。
画像処理装置10は、撮像装置によって撮像された車両Cの周囲の撮像画像に車幅線L10を重畳して表示部に表示させることで、車両Cの向きや姿勢等といった情報や車両Cの周囲の状況等を運転者に提示する。
また、画像処理装置10は、車両Cの周囲の撮像画像に予測線L20を重畳して表示部に表示させることで、車両Cの進行方向を運転者に提示する。以下、説明を簡単にするために、画像処理装置10が予測線L20の前面に車幅線L10を重畳して表示部に表示させる場合について説明する。
ここで、例えば車両Cが直進する場合、予測線L20は直線となる。すなわち、車幅線L10と予測線L20は、同じ形状の2本の直線となる。したがって、画像処理装置10が、車幅線L10および予測線L20として、同じ画像を撮像画像に重畳して表示部に表示させると、予測線L20は、前面に表示される車幅線L10に隠れてしまい、運転者が視認できなくなってしまう。
このように、車両Cの進行方向によっては、予測線L20の一部に車幅線L10が重複してしまい、運転者が予測線L20を視認しにくくなってしまう。したがって、単に車幅線L10および予測線L20を表示部に表示させるだけでは、運転者に対して車幅線L10および予測線L20といった車両Cに関する情報を適切に表示しているとはいえなかった。
そこで、本実施形態に係る画像処理装置10は、車幅線L10と予測線L20との重複度を算出し、算出した重複度が所定の閾値以上である場合に、前面に表示する画像(以下、前面画像とも称する)として、背面に表示する画像(以下、背面画像とも称する)が視認できる画像を選択する。なお、以下では車幅線L10を示す車幅画像P10を前面画像とし、予測線L20を示す予測画像P20を背景画像とする場合について説明する。
画像処理装置10は、車幅線L10と予測線L20との重複度として、例えば車幅線L10および予測線L20の重複部分の面積S1を求める。画像処理装置10は、求めた面積S1が所定の閾値以上であるか否かを判定する。
画像処理装置10は、車幅線L10および予測線L20の重複部分の面積S1が所定の閾値以上である場合に、車幅画像P10として、背面画像である予測画像P20を視認できる画像を選択する。
ここで、車幅画像P10は、例えば、車幅の延長線である2本の車幅ラインL11と、車両Cから第1の距離離れた位置を示す第1距離ラインL31と、車両Cから第2の距離離れた位置を示す第2距離ラインL32とが描画された画像である。
図1の例では、画像処理装置10は、車幅画像P10として、車幅ラインL11および第2距離ラインL32が破線で描画された画像を選択する。
また、予測画像P20は、予測される車両Cの軌跡を示す2本の予測ラインL21が描画された画像である。図1の例では、画像処理装置10は、予測画像P20として、予測ラインL21が実線で描画された画像を選択する。
画像処理装置10は、撮像画像、選択した予測画像P20および車幅画像P10を、かかる順に重畳して合成画像P3を生成する。画像処理装置10は、生成した合成画像P3を表示部に表示させる。
このように、画像処理装置10は、車幅画像P10および予測画像P20のうち一方を前面に表示する前面画像とするとともに他方を前記前面画像の背面に表示する背面画像としたときに、前面画像として背面画像が視認できる画像を選択する。
具体的に、上述した例では、前面画像として、背景に表示する予測画像P20を視認できる車幅画像P10を選択する。これにより、予測線L20が車幅線L10に隠れにくくなり、運転者が予測線L20および車幅線L10を視認しやすくなり、運転者が車幅線L10および予測線L20といった車両Cに関する情報をより理解しやすくなる。
画像処理装置10は、車幅線L10と予測線L20との重複度に応じて、車幅線L10の車幅画像P10および予測線L20の予測画像P20を選択することで、運転者に対して車幅線L10および予測線L20といった車両Cに関する情報をより適切に提示することができる。以下、画像処理装置10を含む周辺監視システム1についてさらに説明する。
<2.周辺監視システム1>
図2は、本発明の実施形態に係る周辺監視システム1の構成例を示す図である。図2に示すように、周辺監視システム1は、画像処理装置10と、撮像装置20と、ナビゲーション装置30と、シフトセンサ40と、車速センサ50とを備える。
<2.1.撮像装置20>
図3は、撮像装置20の配置例を示す図である。撮像装置20は、図3に示すように、車両Cの後方に配置され、車両Cの後方を撮像方向として撮像を行う。図3に示す領域Rは、撮像装置20の撮像範囲を示す領域である。
撮像装置20は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、かかる撮像素子によって撮像した車両C後方の画像(以下、撮像画像と記載する)を画像処理装置10に出力する。
また、撮像装置20のレンズとして魚眼レンズなどの広角レンズを採用することで、撮像装置20の画角を180度以上としてもよい。これにより車両Cの後方を広く撮影することが可能となる。
なお、ここでは、撮像装置20を後方に配置する例について説明したが、これに限られない。例えば撮像装置20が車両Cの前方に配置される前方撮像部と、車両Cの後方に配置される後方撮像部と、車両Cの右方に配置される右方撮像部と、車両Cの左方に配置される左方撮像部とを備えるようにし、車両Cの前方、後方、右方および左方をそれぞれ撮像方向として撮像を行うようにしてもよい。これにより、車両C全周囲を撮影することが可能となる。
<2.2.ナビゲーション装置30>
図2のナビゲーション装置30は、表示部31と、音声出力部32と、入力操作部33と、制御部34とを備える。ナビゲーション装置30は、車両Cの運転者が運転する際のナビゲーション機能やオーディオ機能などを有する。
表示部31は、LCD(Liquid Crystal Display)を備え、制御部34の指示に従って例えばナビ画像やテレビジョン放送信号に基づく画像を表示する。また、表示部31は、画像処理装置10から入力された撮像画像、合成画像P3を表示する。
音声出力部32は、スピーカを備え、制御部34の指示に従って例えばナビゲーション機能の音声案内や、テレビジョン放送信号に基づく音声を出力する。また、入力操作部33は、操作者からのナビゲーション装置30に対する入力操作を受け付ける。なお、表示部31が例えばタッチパネル式ディスプレイである場合、表示部31が入力操作部33の機能を備えるようにしてもよい。
制御部34は、ナビゲーション装置30が備える各部を制御する。制御部34は、例えば入力操作部33が受け付けた入力操作に基づいて、表示部31に所定の画像を表示させたり、音声出力部32に音声データを出力させたりする。
<2.3.シフトセンサ40および車速センサ50>
周辺監視システム1は、シフトセンサ40や車速センサ50など、車両Cの状態を検出する各種センサを備える。シフトセンサ40は、シフトレバー(図示せず)のポジションを検出する。シフトレバーのポジションとしては、車両Cが完全に停車している「パーキング」や車両Cが後退している「リア」等が挙げられる。シフトセンサ40は、検出したシフトレバーのポジションを画像処理装置10に出力する。
車速センサ50は、車両Cの走行速度(以下、車速と記載する)を検出する。車速センサ50は、検出した車両Cの車速を画像処理装置10に出力する。
<2.4.画像処理装置10>
画像処理装置10は、画像処理部11、進行予測部12、判定部13、選択部14、決定部15および記憶部16を備える。
<2.4.1.進行予測部12>
進行予測部12は、撮像装置20から入力される撮像画像に基づいて車両Cの進行方向を予測する。進行予測部12には、撮像装置20から所定間隔で撮像された複数の撮像画像が連続して入力される。
進行予測部12は、例えば時刻t1に撮像された撮像画像から特徴点F1を検出する。画像から特徴点を検出する方法としては、例えばエッジとエッジの交点であるコーナーを検出する方法や、KLT法などがある。
続いて、進行予測部12は、時刻t1の次の時刻t2に撮像された撮像画像から特徴点F2を検出する。進行予測部12は、時刻t1における特徴点F1の位置および時刻t2における特徴点F2を結んだ移動ベクトル(オプティカルフロー)に基づいて車両Cの進行方向を予測する。
進行予測部12は、予測した車両Cの進行方向に基づき、予測線L20を予測する。進行予測部12は、予測した進行方向に移動した場合の車両Cの軌跡線を予測線L20として予測する。進行予測部12は、予測した予測線L20を画像処理部11および判定部14に出力する。
なお、進行予測部12が検出する特徴点F1、F2の個数は1個に限られない。進行予測部12が、複数の特徴点F1、F2を検出するようにしてもよい。
また、進行予測部12は撮像画像に基づいて車両Cの進行方向を予測するが、車両Cの進行方向を予測する方法はこれに限られない。例えば、車輪の舵角に応じて車両Cの進行方向を予測するようにしてもよい。車輪の舵角は、例えば図示しないステアリングセンサによって検出することができる。
<2.4.2.判定部13>
判定部13は、車幅線L10と進行予測部12が予測した予測線L20との重複度を算出する。判定部13は、算出した重複度を所定の閾値Thと比較し、比較結果に基づいて重複度が所定の閾値Th以上であるか否かを判定する。判定部13は、判定結果を選択部14に出力する。なお、車幅線L10は、車両Cによってあらかじめ決められている線であって、例えば記憶部16に記憶されているものとする。
判定部13は、車幅線L10および予測線L20の重複部分の面積S1を重複度として算出する(図1参照)。判定部13は、重複部分の面積S1と閾値Thとを比較する。なお、ここでは、車幅線L10の2本の線および予測線L20の2本の線それぞれの重複度を算出しているが、どちらか一方、すなわち車両Cの右端あるいは左端の車幅線L10および予測線L20の重複部分の面積S1を算出するようにしてもよい。
また、判定部13が予測線L20の曲率半径に基づいて重複度が所定の閾値以上であるか否かを判定するようにしてもよい。この場合、判定部13は、予測線L20の曲率半径が所定の閾値以上であるか否かを判定する。
あるいは、車幅線L10と予測線L20とのなす角に基づいて重複度が所定の閾値以上であるか否かを判定するようにしてもよい。この場合、判定部13は、車幅線L10と予測線L20とのなす角が所定の角度以上であるか否かを判定する。
また、進行予測部12が車輪の舵角に基づいて進行方向を予測している場合、判定部13は、かかる車輪の舵角に基づいて重複度が所定の閾値以上であるか否かを判定するようにしてもよい。この場合、車輪の舵角が所定の角度以上であるか否かを判定する。
<2.4.3.決定部15>
決定部15は、車両Cの状態に応じて、車幅画像P10および予測画像P20のうち一方を前面画像に決定し、他方を前面画像の背面に表示する背面画像に決定する。
決定部15は、車両Cが停止している場合に、車幅画像P10を前面画像に決定し、予測画像P20を背面画像に決定する。また決定部15は、車両Cが移動している場合に、予測画像P20を前面画像に決定し、車幅画像P10を背面画像に決定する。なお、車両Cが移動しているとは、直進および旋回している場合を含む。なお、直進および旋回は、前進および後退している場合を含む。
決定部15は、車速センサ50から入力される車両Cの車速に基づいて、車両Cの状態、すなわち車両Cが停止しているか移動しているかを判定する。決定部15は、例えば車両Cの車速とゼロ以上の所定の速度Vth(Vth≧0)とを比較する。決定部15は、所定の速度Vth以下の場合に車両Cが停止していると判定し、所定の速度Vthより大きい場合に車両Cが移動していると判定する。
決定部15は、車両Cの状態に基づいて車幅線L10および予測線L20のどちらを前面に表示するか、すなわち車幅画像P10と予測画像P20の重畳順を決定する。決定部15は、決定結果を選択部14に出力する。
なお、ここでは、決定部15が車両Cの状態に応じて車幅画像P10と予測画像P20の重畳順を決定するとしているが、これに限られない。例えば運転者が車幅画像P10と予測画像P20の重畳順を決定できるようにしてもよい。あるいは、製品出荷時や周辺監視システム1を車両Cに搭載するときなどにあらかじめ設定できるようにしてもよい。
<2.4.4.選択部14>
選択部14は、判定部14による判定結果および決定部15による決定結果に応じて、記憶部16が記憶する複数の画像の中から車幅画像P10および予測画像P20をそれぞれ選択する。選択部14は、選択した画像を画像処理部11に出力する。
選択部14は、判定部14によって重複度が所定の閾値Th以上であると判定された場合に、前面画像として、複数の画像を含む画像群の中から背面画像が視認できる画像を選択する。
画像群は、車幅線L10を描画する車幅画像P10の画像群と予測線L20を描画する予測画像P20の画像群とを含む。以下、各画像群の詳細について説明する。
<2.4.4.1.車幅画像P10の画像群>
図4は、車幅画像P10の画像群の一例を示す図である。図4の例では、車幅画像P10の画像群は、10個の画像P10a〜P10jを有する。各画像P10a、P10b、P10d〜P10jにはそれぞれ、車幅の延長線である2本の車幅ラインL11、車両Cから所定距離離れた位置を示す第1距離ラインL31および第2距離ラインL32の少なくとも1つが描画されている。各画像P10a〜P10jの詳細は以下の通りである。なお、以下、第1距離ラインL31および第2距離ラインL32をまとめて距離ラインL30とも称する。
画像P10aは、車幅ラインL11および距離ラインL30を実線で描画した画像である。車幅ラインL11および距離ラインL30はいずれも透過していない。画像P10aは、背面の画像を視認できない画像である。
画像P10bは、画像P10aと同様に、車幅ラインL11および距離ラインL30を実線で描画した画像である。ただし、画像P10bの車幅ラインL11は透過している点で画像P10aと異なる。画像P10bは、車幅ラインL11を透過させることで、背面の画像を視認できるようにした画像である。
画像P10cは、車幅ラインL11および距離ラインL30が描画されていない画像である。このように、ラインL11、L30の描画を省略した画像P10cを車幅画像P10とすることもできる。画像P10cは、ラインL11、L30の描画を省略することで背面の画像を視認できるようにした画像である。
画像P10dは、車幅ラインL11および第2距離ラインL32が描画される画像である。車幅ラインL11は透過している。画像P10dは、車幅ラインL11を透過させることで、背面の画像を視認できるようにした画像である。
なお、ここでは、第1距離ラインL31の描画を省略しているが、第1距離ラインL31を描画し、第2距離ラインL32の描画を省略してもよい。また、車幅ラインL11は透過しているとしたが、透過しないようにしてもよい。この場合、画像P10dは、背面の画像を視認できない画像となる。
画像P10eは、部分ラインL11_Sおよび第1距離ラインL31が描画される画像である。部分ラインL11_Sは、車幅ラインL11のうち、車幅ラインL11の車両Cに近い端部から第1距離ラインL31までのラインである。部分ラインL11_Sは透過しており、画像P10eは、背面の画像を視認できる画像である。
なお、ここでは、部分ラインL11_Sは透過しているとしたが、透過しないようにしてもよい。部分ラインL11_Sが透過しない場合であっても、車幅ラインL11のうち部分ラインL11_Sを描画していない部分に表示される背面画像、すなわち予測線L20を視認することができる。したがって、画像P10eは、部分ラインL11_Sの透過、非透過にかかわらず背面の画像を視認できる画像である。
画像P10fは、車幅ラインL11および第2距離ラインL32を点線で描画した画像である。画像P10gは、車幅ラインL11および第2距離ラインL32を破線で描画した画像である。画像P10hは、車幅ラインL11および第2距離ラインL32を一点鎖線で描画した画像である。
画像P10iは、車幅ラインL11および第2距離ラインL32を長破線で描画した画像である。画像P10jは、車幅ラインL11および第2距離ラインL32を二点鎖線で描画した画像である。
このように、画像P10f〜P10jは、車幅ラインL11および第2距離ラインL32を実線以外の線種で描画した画像である。画像P10f〜P10jの車幅ラインL11および距離ラインL30はいずれも透過していない。画像P10f〜P10jは、車幅ラインL11および第2距離ラインL32を実線以外の線で描画することで背面の画像を視認できるようにしている。
画像P10f〜P10jでは、第1距離ラインL31を実線で描画しているが、車幅ラインL11および第2距離ラインL32と同様の線種で描画するようにしてもよい。また、画像P10f〜P10jの車幅ラインL11および距離ラインL30はいずれも透過していないとしたが、透過するようにしてもよい。
図4の例では、車幅線L10を示す画像P10a〜P10jのうち、画像P10aは、背面に予測線L20を表示した場合に、車幅線L10および予測線L20が重複すると、背面の予測線L20を示す画像が視認できない画像である。一方、画像P10b〜P10jは、背面に予測線L20を表示した場合に、車幅線L10および予測線L20が重複したとしても、背面の予測線L20を示す画像が視認できる画像である。
なお、画像P10a〜P10jでは、車幅ラインL11および第2距離ラインL32と第1距離ラインL31とが異なる表示色とするが、同じ表示色としてもよい。また、第2距離ラインL32は、車幅ラインL11と同様の線種としているが、第1距離ラインL31と同様の線種としてもよい。
<2.4.4.2.予測画像P20の画像群>
図5は、予測画像P20の画像群の一例を示す図である。図5の例では、予測画像P20の画像群は、10個の画像P20a〜P20jを有する。各画像P20a、P20b、P20d〜P20jにはそれぞれ、予測される車両Cの軌跡を示す2本の予測ラインL21が描画されている。各画像P20a〜P20jの詳細は以下の通りである。
画像P20aは、予測ラインL21を実線で描画した画像である。予測ラインL21は透過していない。画像P20aは、背面の画像を視認できない画像である。
画像P20bは、画像P20aと同様に、予測ラインL21を実線で描画した画像である。ただし、画像P20bの予測ラインL21は透過している点で画像P20aと異なる。画像P20bは、予測ラインL21を透過させることで、背面の画像を視認できるようにした画像である。
画像P20cは、予測ラインL21が描画されていない画像である。このように、予測ラインL21の描画を省略した画像P20cを予測画像P20とすることもできる。画像P20cは、予測ラインL21の描画を省略することで背面の画像を視認できるようにした画像である。
画像P20dは、延長ラインL21_Lが描画される画像である。延長ラインL21_Lは、車両Cから遠い方向に予測ラインL21をさらに延長させたラインである。すなわち延長ラインL21_Lは、予測ラインL21より長いラインとなる。延長ラインL21_Lは透過している。画像P20dは、延長ラインL21_Lを透過させることで、背面の画像を視認できるようにした画像である。
なお、ここでは、延長ラインL21_Lは透過しているとしたが、透過しないようにしてもよい。この場合、画像P20dは、背面の画像を視認できない画像となる。
画像P20eは、部分ラインL21_Sが描画される画像である。部分ラインL21_Sは、予測ラインL21のうち、予測ラインL21の車両Cに近い端部から第1距離ラインL31までのラインである。部分ラインL21_Sは透過しており、画像P20eは、背面の画像を視認できる画像である。
なお、ここでは、部分ラインL21_Sは透過しているとしたが、透過しないようにしてもよい。部分ラインL21_Sが透過しない場合であっても、予測ラインL21のうち部分ラインL21_Sを描画していない部分に表示される背面画像、すなわち車幅線L10を視認することができる。したがって、画像P20eは、部分ラインL21_Sの透過、非透過にかかわらず背面の画像を視認できる画像である。
画像P20fは、予測ラインL21を点線で描画した画像である。画像P20gは、予測ラインL21を破線で描画した画像である。画像P20hは、予測ラインL21を一点鎖線で描画した画像である。画像P20iは、予測ラインL21を長破線で描画した画像である。画像P20jは、予測ラインL21を二点鎖線で描画した画像である。
このように、画像P20f〜P20jは、予測ラインL21を実線以外の線種で描画した画像である。画像P20f〜P20jの予測ラインL21はいずれも透過していない。画像P20f〜P20jは、予測ラインL21を実線以外の線で描画することで背面の画像を視認できるようにしている。
図5の例では、予測線L20を示す画像P20a〜P20jのうち、画像P20aは、背面に車幅線L10を表示した場合に、車幅線L10および予測線L20が重複すると、背面の車幅線L10を示す画像が視認できない画像である。一方、画像P20b〜P20jは、背面に車幅線L10を表示した場合に、車幅線L10および予測線L20が重複したとしても、背面の車幅線L10を示す画像が視認できる画像である。
なお、画像P20a〜P20jの予測ラインL21の表示色は、画像P10a〜P10jの車幅ラインL11の表示色と異なるものとする。
図4、図5に示す画像P10a〜P10j、P20a〜P20jは、描画するラインの線種を変えることで、背面画像のラインを視認できるようにしていたが、これに限られない。例えば、車幅ラインL11または予測ラインL21を点滅表示させることで背面画像のラインを視認できるようにしてもよい。あるいは、背面画像のラインより、前面画像のラインが細くなるようにすることで、背面画像のラインを視認できるようにしてもよく、例えば点線のラインを点滅させて表示するなど、表示方法を複数組み合わせた画像としてもよい。
<2.4.4.3.車幅画像P10および予測画像P20の選択>
選択部14は、車幅線L10および予測線L20の重複度に応じて、複数の画像P10a〜P10jの中から車幅画像P10を選択し、予測画像P20a〜P20jの中から予測画像P20を選択する。
まず、判定部13によって、車幅線L10および予測線L20の重複度が所定の閾値Th以上であると判定された場合について説明する。この場合、選択部14は、前面画像として背面が視認できる画像を選択し、背面画像として背面が視認できない画像を選択する。
決定部15によって、車幅画像P10が前面画像、予測画像P20が背面画像に決定されている場合、選択部14は、前面画像である車幅画像P10として、背面が視認できる画像を選択する。図4に示す例では、選択部14は、画像P10b〜P10jの中から車幅画像P10を選択することで、背面の予測線L20を視認できる画像を選択する。また、選択部14は、背面画像である予測画像P20として、背面が視認できない画像を選択する。図5に示す例では、選択部14は、画像P20aを選択する。
一方、決定部15によって、予測画像P20が前面画像、車幅画像P10が背面画像に決定されている場合、選択部14は、前面画像である予測画像P20として、背面が視認できる画像を選択する。図5に示す例では、選択部14は、画像P20b〜P20jの中から予測画像P20を選択することで、背面の車幅画像P10を視認できる画像を選択する。また、選択部14は、背面画像である車幅画像P10として、背面が視認できない画像を選択する。図4に示す例では、選択部14は、画像P10aを選択する。
次に、判定部13によって、車幅線L10および予測線L20の重複度が所定の閾値Th未満であると判定された場合、選択部14は、前面画像および背面画像としていずれも背面が視認できない画像を選択する。ここでは、予測画像P20を前面画像、車幅画像P10を背面画像とする。
この場合、選択部14は、例えば背面画像である車幅画像P10として、図4に示す画像P10aを選択し、前面画像である予測画像P20として、図5に示す画像P20aを選択する。
選択部14は、判定部14による判定結果および決定部15による決定結果に応じて選択した前面画像および背面画像を画像処理部11に出力する。
なお、上述した例では、選択部14が、車幅線L10および予測線L20の重複度が所定の閾値Th以上である場合に、背面を視認できる画像として、複数の画像P10b〜P10jの中から車幅画像P10を選択し、P20b〜P20jの中から予測画像P20を選択するとしたがこれに限られない。例えば、運転者があらかじめ複数の画像P10b〜P10j、P20b〜P20jの中から背面が視認できる画像を選択しておいてもよい。この場合、選択部14は、前面画像として、運転者があらかじめ選択した画像を選択する。あるいは、背面が視認できる画像を製品出荷時や周辺監視システム1を車両Cに搭載するときなどにあらかじめ選択できるようにしてもよい。
また、選択部14は、車幅線L10および予測線L20の重複度が所定の閾値Th未満である場合に、予測画像P20および車幅画像P10の両方を選択しているが、予測画像P20および車幅画像P10の一方を選択するようにしてもよい。すなわち、表示部31に予測画像P20および車幅画像P10の一方を表示するようにしてもよい。
あるいは、予測画像P20および車幅画像P10の両方を選択するか一方を選択するか変更できるようにしてもよい。この場合、例えば運転者によって、予測画像P20および車幅画像P10の両方を選択するか一方を選択するか変更できるようにしてもよい。
<2.4.5.画像処理部11>
図2に示す画像処理部11は、例えば車両Cが後退している場合に、合成画像P3を表示部31に表示させる。具体的には、画像処理部11は、シフトセンサ40から入力されるシフトレバーのポジションが「リア」の場合に、合成画像P3を生成し、表示部31に出力する。
画像処理装置11は、撮像装置20が撮像した撮像画像に、選択部14から入力された背面画像および前面画像を重畳して合成画像P3を生成する。ここでは、背面画像として予測画像P20が選択され、前面画像として車幅画像P10が選択された場合について説明する。
画像処理部11は、撮像装置20から入力された撮像画像に種々の画像処理を施して撮像データを生成する。また、画像処理部11は、進行予測部12が予測した車両Cの進行方向に基づき、予測画像P20の予測ラインL21を進行方向に応じた曲率を有する曲線ラインに変換する。
画像処理部11は、生成した撮像データ、変換した曲線ラインが描画された予測画像P20および車幅画像P10を重畳して合成画像P3を生成し、生成した合成画像P3をナビゲーション装置30の表示部31に表示させる。
なお、ここでは、撮像装置20が車両Cの後方の画像を撮像する場合について述べたが、例えば車両Cの全周囲を撮像する場合、画像処理部11が全周囲を撮像した撮像画像に基づき仮想視点画像を生成するようにしてもよい。
この場合、例えば撮像装置20からは車両Cの前方、後方、右方および左方をそれぞれ撮像方向とする複数の撮像画像が入力される。画像処理部11は、かかる複数の撮像画像に対して座標変換処理を行い、仮想視点から見た画像である仮想視点画像を生成する。画像処理部11は、座標変換処理として、例えば撮像画像を所定の投影面に投影(マッピング)し、所定の投影面に投影された撮像画像のうち仮想視点から見て所定の視野角に含まれる領域の画像を仮想視点画像とする。
画像処理部11は、例えば複数の撮像画像に含まれるデータの位置と、所定の投影面の位置との対応関係を示すテーブルを記憶しており、かかるテーブルを用いて、複数の撮像画像に含まれるデータを所定の投影面の対応する位置に投影する。
かかる所定の投影面は、例えば、略半球状(例えば、お椀形状)をしており、その中心領域(例えば、お椀の底部分)は車両Cの位置であり、車両Cの位置の外側(例えば、略半球状の外周領域)は、車両Cの周辺の領域に相当する。なお、所定の投影面は、例えば、曲面でなく平面であってもよい。
画像処理部11は、生成した仮想視点画像、予測画像P20および車幅画像P10を重畳して合成画像P3を生成してナビゲーション装置30の表示部31に表示させる。
また、ここでは、画像処理部11が、車両Cが後退している場合に合成画像P3を表示部31に表示させるとしたが、これに限られない。例えば車両Cが直進している場合にも合成画像P3を表示部31に表示させるようにしてもよい。この場合、画像処理部11は、撮像装置20が撮像した車両Cの前方の撮像画像に車幅線L10及び予測線L20を重畳させて表示させる。
例えば幅が狭い道路を車両Cが通過する場合や、車両Cが他車両とすれ違う場合に、合成画像P3を表示部31に表示させることで、運転者に対して安全に走行できる進行方向を提示することができる。
また、ここでは、画像処理部11が、進行予測部12が予測した車両Cの進行方向に基づき、予測画像P20の予測ラインL21を進行方向に応じた曲率を有する曲線ラインに変換するとしたが、これに限られない。例えば選択部14が予測画像P20の予測ラインL21を進行方向に応じた曲率を有する曲線ラインに変換してもよく、進行方向に応じた曲率を有する曲線ラインが予測ラインL21として描画された画像を選択するようにしてもよい。
<2.4.6.記憶部16>
記憶部16は、複数の画像P10a〜P10j、P20a〜P20jを記憶する。また、記憶部16は、所定の閾値Thなど判定部13や決定部15が行う処理に必要な情報を記憶する。記憶部16は、例えばRAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置である。
<3.画像表示処理>
続いて、画像処理装置10が行う画像表示処理について説明する。図6は、画像処理装置10が行う画像表示処理を示すフローチャートである。画像処理装置10は、例えば車両Cのシフトレバーのポジションが「リア」に変更になったことを契機として画像表示処理を開始する。
画像処理装置10は、撮像装置20から撮像画像を取得する(ステップS101)。画像処理装置10は、取得した撮像画像に基づき、車両Cの進行方向を推定する(ステップS102)。画像処理装置10は、推定した車両Cの進行方向および車両Cの車幅に基づいて、車両Cの車幅線L10および予測線L20の重複度を算出する(ステップS103)。
画像処理装置10は、算出した重複度を所定の閾値Thと比較する(ステップS104)。重複度が所定の閾値Th未満である場合(ステップS104;No)、ステップS108に進む。
一方、重複度が所定の閾値Th以上である場合(ステップS104;Yes)、画像処理装置10は、車両Cが停止しているか否か判定する(ステップS105)。車両Cが停止している場合(ステップS105;Yes)、画像処理装置10は、車幅線L20を示す車幅画像P10を前面画像に決定する(ステップS106)。これにより、予測画像P20が背面画像となる。
車両Cが停止していない、すなわち移動している場合(ステップS105;No)、画像処理装置10は、予測線L20を示す予測画像P20を前面画像に決定する(ステップS107)。これにより、車幅画像P10が背面画像となる。
画像処理装置10は、重複度および車幅画像P10が前面画像か否かに応じて車幅画像P10を選択する(ステップS108)。また、画像処理装置10は、重複度および予測画像P20が前面画像か否かに応じて予測画像P20を選択する(ステップS109)。
画像処理装置10は、選択した車幅画像P10および予測画像P20を撮像画像に重畳して合成画像P3を生成し、生成した合成画像P3を表示部31に表示させ(ステップS110)、処理を終了する。
なお、ステップS108およびS109を実行する順序は、同時であったり、逆であったりしてもよい。
また、ここでは、例えば車両Cのシフトレバーのポジションが「リア」に変更になったことを契機として画像表示処理を開始するとしたが、これに限られない。例えばシフトレバーのポジションが「ドライブ」に変更になった場合、すなわち車両Cが直進している場合に、画像表示処理を開始するようにしてもよい。あるいは、運転者の操作によって画像表示処理を開始するようにしてもよい。
以上のように、画像処理装置10は、車幅線L10と予測線L20との重複度に応じて、車幅線L10の車幅画像P10および予測線L20の予測画像P20を選択することで、車幅線L10および予測線L20といった車両Cに関する情報をより適切に運転者に表示することができる。
<4.変形例>
図7は、本実施形態に係る画像処理装置10の変形例を説明する図である。図1に示す画像処理装置10は、車幅線L10および予測線L20のうち、前面に表示する線を、背面に表示する線が視認できるように表示している。
本変形例では、さらに、車両Cの周囲に障害物P5が存在する場合に、車幅線L10および予測線L20を、障害物P5が視認できるように表示する。それ以外の構成要素および動作は実施形態にかかる画像処理装置10と同じであるため説明を省略する。
具体的には、画像処理装置10が検出部17をさらに備える。検出部17は、撮像装置20から入力される撮像画像から障害物P5を検出する。障害物P5としては、例えば車両Cの周囲に存在する人物や他の車両といった移動物体や、あるいは電柱や木といった静止物体などがあげられる。
検出部17は、撮像画像から上述したオプティカルフローを算出することで障害物P5を検出する(図8参照)。また、撮像画像とパターン画像とを照合することで障害物P5を検出するようにしてもよい。検出部17は、検出した障害物P5を判定部13に出力する。
判定部13は、検出部17が検出した障害物P5と車幅線L10との重複度である車幅線重複度を算出し、算出した車幅線重複度が所定の閾値Th1以上であるか否かを判定する。
判定部13は、障害物P5と車幅線L10とが重複する面積を車幅線重複度として算出する。あるいは、例えば障害物P5を枠で囲って表示する場合は、かかる枠と車幅線L10とが重複する面積を車幅線重複度としてもよく、例えば障害物P5の近辺に警告マークを表示する場合は、かかる警告マークと車幅線L10とが重複する面積を車幅線重複度としてもよい。
判定部13は、検出部17が検出した障害物P5と予測線L20との重複度である予測線重複度を算出し、算出した予測線重複度が所定の閾値Th2以上であるか否かを判定する。予測線重複度は、車幅線重複度と同様に算出することができる。判定部13は、判定結果を選択部14に出力する。
選択部14は、判定部13の判定結果に応じて車幅線L10を示す車幅画像P10および予測線L20を示す予測画像P20を選択する。選択部14は、車幅線重複度が所定の閾値Th1以上である場合、障害物P5が視認できる車幅画像として、背面が視認できる画像を選択する。図4に示す例では、選択部14は、画像P10b〜P10jの中から車幅画像P10を選択する。
車幅線重複度が所定の閾値Th1未満である場合、選択部14は、車幅線L10および予測線L20の重複度に応じて車幅画像P10を選択する。
選択部14は、予測線重複度が所定の閾値Th2以上である場合、障害物P5が視認できる予測画像として、背面が視認できる画像を選択する。図5に示す例では、選択部14は、画像P20b〜P20jの中から予測画像P20を選択する。
予測線重複度が所定の閾値Th2未満である場合、選択部14は、車幅線L10および予測線L20の重複度に応じて予測画像P20を選択する。
画像処理部11は、撮像画像に車幅画像P10、予測画像P20および障害物P5を通知する画像を重畳して合成画像P3を生成する。画像処理部11は、生成した合成画像P3を表示部31に表示させる。障害物P5を通知する画像としては、例えばかかる障害物P5を囲う枠や警告マークなどがある。
図8は、画像処理部11が生成する合成画像P3の一例を示す図である。図8に示すように、画像処理部11は、撮像画像に車幅線L10を示す車幅ラインL11、予測線L20を示す予測ラインL21および障害物P5を通知する画像(図8では枠線L40)を重畳して合成画像を生成する。
図8に示す例では、障害物P5と予測線L20との予測線重複度が所定の閾値Th2以上であるため、画像処理部11は、予測ラインL21を破線で表示する。また、車幅線L10と予測線L20との重複度は所定の閾値Th未満であるため、画像処理部11は、車幅ラインL11を実線で表示する。
このように、運転者に対して障害物P5を通知する場合に、車幅線L10および予測線L20として、かかる障害物P5を視認できる画像を選択する。これにより、障害物P5の通知を妨げることなく、車幅線L10および予測線L20といった車両Cに関する情報を運転者に対して提示することができる。
図8に示す例では、かかる障害物P5を視認できる予測画像P20として、2本の予測ラインL21の両方とも背景画像を視認できるラインが描画された画像を選択するものとした。すなわち、2本の予測ラインL21の両方とも破線で描画した画像を選択するものとしたが、これに限られない。
例えば障害物P5と重複する予測ラインL21を、背景画像を視認できるラインとし、重複しない予測ラインL21を、背景画像を視認できないラインとする画像を選択するようにしてもよい。すなわち、障害物P5と重複する予測ラインL21を破線で描画し、重複しない予測ラインL21を実線で描画するようにしてもよい。
なお、ここでは、車幅線L10および予測線L20として、かかる障害物P5を視認できる画像を選択するものとしたが、これに限られない。例えば障害物P5と重複する車幅線L10あるいは予測線L20を強調表示するようにしてもよい。
車幅線L10および予測線L20はそれぞれ2本のラインで描画されるが、かかる2本のラインのうち障害物P5と重複するラインを強調表示する。これにより、障害物P5を運転者により強く提示することができるようになる。
車幅線L10あるいは予測線L20を強調表示する方法としては、例えば重複する車幅線L10あるいは予測線L20を点滅させる、あるいは他の線とは異なる色で表示する、他の線より太い線で描画するといった方法がある。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 周辺監視システム
10 画像処理装置
11 画像処理部
12 進行予測部
13 判定部
14 選択部
15 決定部
16 記憶部
17 検出部
20 撮像装置
30 ナビゲーション装置
31 表示部
32 音声出力部
33 入力操作部
34 制御部
40 シフトセンサ
50 車速センサ

Claims (4)

  1. 車両の車幅の延長線を示す車幅線の画像である車幅画像と前記車両の予測される進行方向を示す予測線の画像である予測画像とを、前記車幅線と前記予測線との重複度に応じて選択する選択部と、
    撮像装置から入力される撮像画像に前記選択部によって選択された前記車幅画像および前記予測画像を重畳した合成画像を生成する画像処理部と
    前記重複度が所定の閾値以上であるか否かを判定する判定部と
    を備え、
    前記車幅画像および前記予測画像のうち一方を前面に表示する前面画像とするとともに他方を前記前面画像の背面に表示する背面画像としたときに、前記選択部は、前記重複度が前記閾値以上である場合に、前記前面画像として前記背面画像が視認できる画像を選択すること
    を特徴とする画像処理装置。
  2. 前記選択部は、複数の画像の中から前記車幅画像および前記予測画像を選択すること
    を特徴とする請求項1に記載の画像処理装置。
  3. 前記車両の状態に応じて、前記車幅画像および前記予測画像のうち一方を前面に表示する前面画像に決定し、他方を前記前面画像の背面に表示する背面画像に決定する決定部をさらに備え
    前記決定部は、
    前記車両が停止している場合に前記車幅画像を前記前面画像に決定し、前記車両が移動している場合に前記予測画像を前記前面画像に表示すると決定すること
    を特徴とする請求項1または2に記載の画像処理装置。
  4. 車両の車幅の延長線を示す車幅線の画像である車幅画像と前記車両の予測される進行方向を示す予測線の画像である予測画像とを、前記車幅線と前記予測線との重複度に応じて選択する選択工程と、
    撮像装置から入力される撮像画像に前記選択工程で選択された前記車幅画像および前記予測画像を重畳した合成画像を生成する画像処理工程と
    前記重複度が所定の閾値以上であるか否かを判定する判定工程と
    を含み、
    前記車幅画像および前記予測画像のうち一方を前面に表示する前面画像とするとともに他方を前記前面画像の背面に表示する背面画像としたときに、前記選択工程で、前記重複度が前記閾値以上である場合に、前記前面画像として前記背面画像が視認できる画像を選択すること
    を特徴とする画像処理方法。
JP2015116420A 2015-06-09 2015-06-09 画像処理装置および画像処理方法 Active JP6523801B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015116420A JP6523801B2 (ja) 2015-06-09 2015-06-09 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015116420A JP6523801B2 (ja) 2015-06-09 2015-06-09 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2017001493A JP2017001493A (ja) 2017-01-05
JP6523801B2 true JP6523801B2 (ja) 2019-06-05

Family

ID=57751457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015116420A Active JP6523801B2 (ja) 2015-06-09 2015-06-09 画像処理装置および画像処理方法

Country Status (1)

Country Link
JP (1) JP6523801B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6793448B2 (ja) * 2015-10-26 2020-12-02 株式会社デンソーテン 車両状態判定装置、表示処理装置および車両状態判定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339598A (ja) * 1999-03-19 2000-12-08 Yazaki Corp 車両用モニタ装置
JP5376223B2 (ja) * 2009-05-18 2013-12-25 アイシン精機株式会社 運転支援装置
RU2548649C2 (ru) * 2010-09-06 2015-04-20 Айсин Сейки Кабусики Кайся Устройство содействия вождению

Also Published As

Publication number Publication date
JP2017001493A (ja) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6785953B2 (ja) 車載用監視カメラ装置
JP5706874B2 (ja) 車両の周辺監視装置
JP5741173B2 (ja) 画像表示装置、及び、画像表示方法
JP6193714B2 (ja) 駐車支援装置
JP5549235B2 (ja) 運転支援装置
JP5605606B2 (ja) 駐車支援装置
JP2015133603A (ja) 周辺監視装置、及びプログラム
KR20130050763A (ko) 주차 보조 시스템
JP5776995B2 (ja) 車両用周辺監視装置
JP2009265803A (ja) 車両視界支援装置
JP2009231938A (ja) 車両用周囲監視装置
JP2016063390A (ja) 画像処理装置、及び画像表示システム
JP2016218795A (ja) 画像処理装置および画像処理方法
JP2019046069A (ja) 運転支援装置及び運転支援方法
JP7047586B2 (ja) 車両用表示制御装置
JP2006246430A (ja) 車両周辺監視装置
JP4769631B2 (ja) 車両運転支援装置および車両運転支援方法
JP2012001126A (ja) 車両用周辺監視装置
JP6638527B2 (ja) 車両用装置、車両用プログラム
JP6407596B2 (ja) 画像処理装置、及び、運転支援システム
JP2013161440A (ja) 車両周辺監視装置
JP2009071659A (ja) 駐車支援装置
JP6821124B2 (ja) 運転支援装置、運転支援方法およびプログラム
JP2014199677A (ja) 運転支援装置
JP2009265802A (ja) 車両視界支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190426

R150 Certificate of patent or registration of utility model

Ref document number: 6523801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250