JP6194713B2 - 画像処理装置、システムおよび表示プログラム - Google Patents

画像処理装置、システムおよび表示プログラム Download PDF

Info

Publication number
JP6194713B2
JP6194713B2 JP2013190600A JP2013190600A JP6194713B2 JP 6194713 B2 JP6194713 B2 JP 6194713B2 JP 2013190600 A JP2013190600 A JP 2013190600A JP 2013190600 A JP2013190600 A JP 2013190600A JP 6194713 B2 JP6194713 B2 JP 6194713B2
Authority
JP
Japan
Prior art keywords
image
obstacle
sensor
unit
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013190600A
Other languages
English (en)
Other versions
JP2015056851A (ja
Inventor
俊明 安東
俊明 安東
河合 淳
淳 河合
矢野 勝利
勝利 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013190600A priority Critical patent/JP6194713B2/ja
Publication of JP2015056851A publication Critical patent/JP2015056851A/ja
Application granted granted Critical
Publication of JP6194713B2 publication Critical patent/JP6194713B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、システムおよび表示プログラムに関する。
近年、カメラで撮影した画像をモニタに表示するカメラモニタシステムをミラーの代わりに使用することが検討されている。例えば、自動車のサイドミラーの代わりに使用されるカメラモニタシステムの標準化が進んでいる。自動車のサイドミラーの代わりにカメラモニタシステムを使用する場合、モニタは、車室内に設置される。例えば、モニタは、運転者から見える場所に設置される。
また、物体を検知する検知装置とカメラとを用いて車両後方の視界を支援する装置が提案されている(例えば、特許文献1参照)。この種の装置では、カメラで撮影された車両後方の画像がモニタに表示される。そして、例えば、検知装置の検知範囲等がカメラで撮影された画像に重畳して表示される。
特開2006−352368号公報
運転者が車室内のモニタを見るために動かす視線の範囲は、運転者が車室外のサイドミラーを見るために動かす視線の範囲に比べて、狭い。また、モニタの位置がサイドミラーの位置に比べて運転者に近くなるため、目の焦点位置が近くなる。このため、自動車のサイドミラーの代わりにカメラモニタシステムを使用する場合、車室外まで視線を向けていたときに比べて視野が狭くなるおそれがある。この場合、運転者が得る情報量は、サイドミラーを使用したときに比べて、減少する。例えば、モニタにリアルタイムで表示される画像の範囲外で車両周辺に障害物が存在する場合、運転者が障害物を発見するタイミングが遅れるおそれがある。
1つの側面では、本件開示の画像処理装置、システムおよび表示プログラムは、カメラモニタシステムの利用者に伝える情報の低減を抑制することを目的とする。
一観点によれば、カメラと物体を検知するセンサとからのデータを用いて、画像をモニタに表示する画像処理装置は、カメラで撮影された第1画像を保持する第1保持部と、第1保持部に保持されている第1画像からモニタに表示する第2画像を生成する生成部と、センサの検知結果を受け、センサにより検知された物体である障害物が第2画像に存在するか否かを判定し、障害物が第2画像に存在するとき、障害物が第2画像の端に存在するか否かを判定する判定部と、障害物が第2画像の端に存在すると判定されたとき、障害物の画像を第1画像から抽出する抽出部と、抽出部で抽出された障害物の画像を保持する第2保持部と、センサにより検知されている障害物が第2画像に存在しないと判定され、かつ、障害物の画像が第2保持部に保持されているとき、モニタに表示する画像に障害物の画像を追加する描画部とを有している。
別の観点によれば、システムは、カメラ、センサ、画像処理装置およびモニタを有し、画像処理装置は、カメラで撮影された第1画像を保持する第1保持部と、第1保持部に保持されている第1画像からモニタに表示する第2画像を生成する生成部と、センサの検知結果を受け、センサにより検知された物体である障害物が第2画像に存在するか否かを判定し、障害物が第2画像に存在するとき、障害物が第2画像の端に存在するか否かを判定する判定部と、障害物が第2画像の端に存在すると判定されたとき、障害物の画像を第1画像から抽出する抽出部と、抽出部で抽出された障害物の画像を保持する第2保持部と、センサにより検知されている障害物が第2画像に存在しないと判定され、かつ、障害物の画像が第2保持部に保持されているとき、モニタに表示する画像に障害物の画像を追加する描画部とを有している。
別の観点によれば、カメラと物体を検知するセンサとからのデータを用いて画像をモニタに表示する処理をコンピュータに実行させる表示プログラムは、カメラで撮影された第1画像を保持し、第1保持部に保持されている第1画像からモニタに表示する第2画像を生成し、センサの検知結果を受け、センサにより検知された物体である障害物が第2画像に存在するか否かを判定し、障害物が第2画像に存在するとき、障害物が第2画像の端に存在するか否かを判定し、障害物が第2画像の端に存在すると判定されたとき、障害物の画像を第1画像から抽出し、抽出部で抽出された障害物の画像を保持し、センサにより検知されている障害物が第2画像に存在しないと判定され、かつ、障害物の画像が第2保持部に保持されているとき、モニタに表示する画像に障害物の画像を追加する処理をコンピュータに実行させる。
本件開示の画像処理装置、システムおよび表示プログラムは、カメラモニタシステムの利用者に伝える情報の低減を抑制できる。
画像処理装置およびシステムの一実施形態を示す図である。 カメラの撮影範囲とセンサの検知範囲の一例を示す図である。 図1に示した画像処理装置の動作の一例を示す図である。 図1に示した判定部、抽出部および描画部の動作の一例を示す図である。 障害物が存在しないときにモニタに表示される画像の一例を示す図である。 表示範囲内に障害物が存在するときにモニタに表示される画像の一例を示す図である。 表示範囲内に障害物が存在するときにモニタに表示される画像の別の例を示す図である。 表示範囲外に障害物が存在するときにモニタに表示される画像の一例を示す図である。 表示範囲外に障害物が存在するときにモニタに表示される画像の別の例を示す図である。 センサによる障害物の検知の概要を示す図である。 センサにより検知される障害物の大きさの一例を示す図である。 障害物の位置が表示範囲内か否かの判定の概要を示す図である。 障害物の画像の抽出の一例を示す図である。 画像処理装置およびシステムの別の実施形態を示す図である。 画像処理装置およびシステムの別の実施形態を示す図である。 表示範囲を広げるときの一例を示す図である。 画像処理装置およびシステムの別の実施形態を示す図である。 画像処理装置およびシステムの別の実施形態を示す図である。 モニタに表示される画像の一例を示す図である。 画像処理装置およびシステムの別の実施形態を示す図である。 カメラ20の撮影範囲とサブカメラの撮影範囲とセンサの検知範囲の一例を示す図である。 画像処理装置およびシステムの別の実施形態を示す図である。 表示範囲の画像を外挿して空白領域に画像を表示する処理の一例を示す図である。 画像処理装置およびシステムの別の実施形態を示す図である。 画像処理装置のハードウエア構成の一例を示す図である。
以下、実施形態を図面を用いて説明する。
図1は、画像処理装置およびシステムの一実施形態を示している。この実施形態のシステム10は、例えば、自動車のサイドミラーの代わりに使用されるカメラモニタシステムとして、自動車に搭載される。例えば、図2に示すように、自動車の左右のサイドミラーの代わりに、2つのシステム10が車両300に搭載される。システム10は、例えば、カメラ20、センサ30、モニタ40および画像処理装置50を有している。なお、画像処理装置50は、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。
カメラ20は、例えば、車両側面に配置され、動画撮影を実行する。カメラ20で撮影された画像IMGaは、画像処理装置50に転送される。センサ30は、例えば、物体を検知する障害物センサであり、車両側面に配置される。例えば、センサ30は、ミリ波レーダである。なお、センサ30は、ミリ波レーダ以外のセンサでもよい。センサ30の検知結果INFaは、画像処理装置50に転送される。例えば、センサ30は、センサの処理サイクルに従って、検知結果INFaを画像処理装置50の判定部120に転送する。
モニタ40は、車室内に設置される。例えば、モニタ40は、運転者から見える場所に設置される。モニタ40は、例えば、カメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)に基づいて生成された画像IMGcを、画像処理装置50から受ける。これにより、モニタ40には、カメラ20およびセンサ30からのデータに基づいて生成された画像IMGcが表示される。
モニタ40に表示される画像IMGcは、例えば、サイドミラーに映る像と同様の向きになるように、鏡像処理(左右反転処理)が実行された画像である。鏡像処理は、例えば、画像処理装置50で実行される。なお、鏡像処理は、カメラ20で実行されてもよいし、モニタ40で実行されてもよい。
画像処理装置50は、例えば、ECU(Electronic Control Unit)内に設けられ、カメラ20、センサ30およびモニタ40と通信できるように接続されている。例えば、画像処理装置50は、カメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)を用いて、画像IMGcをモニタ40に表示する。
画像処理装置50は、例えば、保持部100、140、160、生成部110、判定部120、抽出部130および描画部150を有している。保持部100は、カメラ20で撮影された画像IMGaを順次保持する。生成部110は、保持部100に保持されている画像IMGaからモニタ40に表示する画像IMGbを生成する。例えば、生成部110は、保持部100に保持されている画像IMGaを読み出し、モニタ40に表示する範囲(以下、表示範囲とも称する)の画像IMGbを画像IMGaから抽出する。そして、生成部110は、画像IMGaから抽出した画像IMGbを保持部160に保持する。なお、カメラ20の撮影範囲と表示範囲とが一致する場合、生成部110は、画像IMGaを画像IMGbとして保持部160に保持する。
ここで、例えば、画像処理装置50が鏡像処理を実行する場合、生成部110が鏡像処理を実行してもよい。例えば、生成部110は、画像IMGaから抽出した画像を左右反転し、左右反転した画像を画像IMGbとして保持部160に保持する。なお、カメラ20の撮影範囲と表示範囲とが一致する場合、鏡像処理が実行された画像IMGbは、例えば、画像IMGaを左右反転した画像である。
判定部120は、センサ30の検知結果INFaを受け、センサ30により検知された物体である障害物が画像IMGbに存在するか否かを判定する。そして、判定部120は、障害物が画像IMGbに存在するとき、障害物が画像IMGbの端に存在するか否かを判定する。障害物が画像IMGbに存在するか否かの判定結果INFbは、例えば、描画部150に転送される。また、障害物が画像IMGbの端に存在するか否かの判定結果INFcは、例えば、抽出部130に転送される。
抽出部130は、障害物が画像IMGbの端に存在すると判定されたとき、障害物の画像BIMGaを画像IMGaから抽出する。例えば、抽出部130は、障害物が画像IMGbの端に存在することを示す判定結果INFcを判定部120から受けたとき、保持部100に保持されている画像IMGaを読み出す。そして、抽出部130は、センサ30で検知された障害物の範囲に対応する画像BIMGaを画像IMGaから抽出し、抽出した障害物の画像BIMGaを保持部140に保持する。このように、保持部140は、抽出部130で抽出された障害物の画像BIMGaを保持する。
なお、抽出部130は、例えば、センサ30で検知された障害物が追跡中の障害物と異なるとき、保持部140に保持されている障害物の画像BIMGaを削除してもよい。あるいは、判定部120は、例えば、センサ30で検知された障害物が追跡中の障害物と異なるとき、保持部140に保持されている障害物の画像BIMGaを削除してもよい。
描画部150は、センサ30により検知されている障害物が画像IMGbに存在しないと判定され、かつ、障害物の画像BIMGaが保持部140に保持されているとき、モニタ40に表示する画像IMGcに障害物の画像BIMGaを追加する。例えば、描画部150は、障害物が画像IMGbに存在しないことを示す判定結果INFbを判定部120から受けたとき、障害物の画像BIMGaが保持部140に保持されているか否かを判定する。そして、描画部150は、障害物の画像BIMGaが保持部140に保持されているとき、障害物の画像BIMGaを保持部140から読み出し、読み出した画像BIMGaを画像BIMGbとして保持部160に保持する。この場合、保持部160には、画像IMGbと障害物の画像BIMGaとを含む画像IMGcが保持される。
ここで、例えば、画像処理装置50が鏡像処理を実行する場合、描画部150は、画像BIMGaに対して鏡像処理を実行してもよい。例えば、描画部150は、画像BIMGaを左右反転し、左右反転した画像BIMGaを画像BIMGbとして保持部160に保持する。
なお、例えば、描画部150は、センサ30で検知された障害物が画像IMGbに存在せず、かつ、障害物の画像BIMGaが保持部140に保持されていないとき、予め用意された警告用の画像を画像BIMGbとして保持部160に保持する。この場合、保持部160には、画像IMGbと警告用の画像とを含む画像IMGcが保持される。
また、例えば、障害物が画像IMGb外(表示範囲外)に存在しない場合、描画部150は、画像BIMGbを保持部160に保持しない。これにより、画像IMGcのうちの画像BIMGbに対応する領域は、余白になる。
保持部160に保持された画像IMGcは、モニタ40に表示される。したがって、センサ30により検知されている障害物が画像IMGbに存在しない場合、画像IMGbと画像BIMGb(障害物の画像BIMGa、あるいは、警告用の画像)とがモニタ40に表示される。すなわち、描画部150は、センサ30により検知されている障害物が画像IMGbに存在しないと判定され、かつ、障害物の画像BIMGaが保持部140に保持されているとき、画像IMGbのほかに障害物の画像BIMGaをモニタ40に表示する。
このように、例えば、画像処理装置50は、カメラ20と物体を検知するセンサ30とからデータ(画像IMGa、検知結果INFa)を受ける。そして、画像処理装置50は、カメラ20で撮影された画像IMGaの少なくとも一部を含む画像IMGcをモニタ40に表示する。すなわち、画像処理装置50は、カメラ20で撮影された画像をモニタ40に表示する。
なお、システム10および画像処理装置50の構成は、この例に限定されない。例えば、抽出部130は、障害物が画像IMGbの端に存在すると判定されたとき、障害物の画像BIMGaを画像IMGbから抽出してもよい。すなわち、抽出部130は、障害物が画像IMGbの端に存在すると判定されたとき、障害物の画像BIMGaを画像IMGaおよび画像IMGbの少なくとも一方から抽出してもよい。画像IMGbが画像IMGaから抽出された画像であるため、障害物の画像BIMGaを画像IMGbから抽出することは、障害物の画像BIMGaを画像IMGaから抽出することに含まれる。
また、例えば、障害物の画像BIMGaが表示される位置(モニタ40の画面上の位置)は、予め設定された固定位置でもよいし、画像IMGaに対する障害物の相対的な位置に応じて算出される位置でもよい。例えば、画像処理装置50は、障害物の画像BIMGaを表示する位置(モニタ40の画面上の位置)を算出する算出部を有してもよい。
また、画像処理装置50が鏡像処理を実行する場合、障害物の画像に対する鏡像処理は、抽出部130で実行されてもよい。例えば、抽出部130は、センサ30で検知された障害物の範囲に対応する画像を画像IMGaから抽出し、抽出した障害物の画像を左右反転する。そして、抽出部130は、左右反転した画像を画像BIMGbとして保持部140に保持する。この場合、描画部150は、画像BIMGaに対して鏡像処理を実行しない。
また、画像処理装置50は、障害物の画像BIMGaの大きさを、障害物の画像BIMGaが表示されるモニタ40の画面上の領域に合わせて調整(縮小や拡大)してもよい。
図2は、カメラ20の撮影範囲CRANとセンサ30の検知範囲SRANの一例を示している。例えば、自動車の左右のサイドミラーの代わりに、2つのシステム10(カメラ20、センサ30、モニタ40および画像処理装置50)が車両300に搭載されている。
2つのカメラ20は、車両300の右側面および左側面にそれぞれ配置されている。図2の例では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。すなわち、カメラ20で撮影された画像IMGaがモニタ40に表示される。
2つのセンサ30は、車両300の右側面および左側面にそれぞれ配置されている。センサ30は、例えば、検知範囲SRAN内に存在する物体(例えば、障害物)を検知する。この実施形態では、センサ30の検知範囲SRANは、カメラ20の撮影範囲CRANより広い。したがって、センサ30は、カメラ20の撮影範囲CRANの外側に存在する物体(例えば、障害物)を検知できる。
センサ30は、例えば、障害物を検知したとき、障害物の位置を示す情報と障害物の大きさを示す情報と検知時刻を示す情報とを含む検知結果INFaを、画像処理装置50に転送する。障害物の位置を示す情報は、例えば、障害物の中心とセンサ30との距離、センサ30に対する障害物の中心の角度等を示す情報である。センサ30に対する障害物の中心の角度は、例えば、障害物の中心とセンサ30とを結ぶ線とセンサ30の向いている方向(図2のZ軸)との角度(Z軸に対する水平および垂直方向の角度)である。
また、障害物の大きさを示す情報は、例えば、障害物を垂直に伸びた板状の物体としたときの水平および垂直方向の大きさを示す情報である。なお、センサ30が地面を障害物として誤認識しないように、センサ30の取り付け位置における調整は予め完了している。
カメラ20およびセンサ30は、例えば、ECUに接続され、画像IMGaおよび検知結果INFaをECUにそれぞれ転送する。なお、ECUは、図1に示した画像処理装置50を有している。また、ECUは、モニタ40に接続され、画像IMGcをモニタ40に表示する。例えば、右側に配置されたモニタ40は、車両300の右側面のカメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)に基づく画像IMGcを表示する。また、左側に配置されたモニタ40は、車両300の左側面のカメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)に基づく画像IMGcを表示する。
なお、車両300には、2つのモニタ40の代わりに、右側面の画像IMGcを表示する画面と左側面の画像IMGcを表示する画面とを有する1つのモニタが搭載されてもよい。また、ECU内の2つの画像処理装置50は、1つにまとめられてもよい。この場合、画像処理装置50は、例えば、車両300の右側面のカメラ20およびセンサ30からのデータに基づいて画像IMGcを生成する処理と、車両300の左側面のカメラ20およびセンサ30からのデータに基づいて画像IMGcを生成する処理とを、独立して実行する。
図3は、図1に示した画像処理装置50の動作の一例を示している。図3の動作は、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに図3の動作を実行させてもよい。すなわち、プロセッサは、表示プログラムを読み取り、図3の動作を実行してもよい。なお、図3の例では、ステップS100、S110の一連の処理とステップS200の処理とが並列に実行される。例えば、ステップS100、S110、S300の一連の処理は、画像処理装置50が画像IMGaを受ける度に繰り返される。また、ステップS200の処理は、例えば、画像処理装置50が検知結果INFaを受ける度に繰り返される。
ステップS100では、画像処理装置50は、カメラ20で撮影された画像IMGaを保持部100に保持する。例えば、画像処理装置50は、カメラ20で撮影された画像IMGaを取得し、カメラ20から取得した画像IMGaを保持部100に保持する。
ステップS110では、生成部110は、画像IMGaから生成した画像IMGbを保持部160に保持する。例えば、生成部110は、ステップS100で保持部100に保持された画像IMGaを読み出し、読み出した画像IMGaから表示範囲DRANの画像IMGbを抽出する。これにより、モニタ40に表示される画像IMGbが生成される。そして、生成部110は、生成した画像IMGbを保持部160に保持する。なお、例えば、画像処理装置50が鏡像処理を実行する場合、生成部110は、画像IMGaから抽出した表示範囲DRANの画像を左右反転して、画像IMGbを生成する。
これにより、カメラ20の撮影範囲CRANのうちの表示範囲DRAN(モニタ40に表示される範囲)に相当する画像IMGbが保持部160に保持される。
ステップS200では、判定部120、抽出部130、描画部150等は、図4に示すように、センサ30の検知結果INFaに応じた処理を実行する。例えば、判定部120は、センサ30で検知された障害物が表示範囲DRAN内に存在するか否か等を判定する。また、例えば、抽出部130は、センサ30で検出された障害物が表示範囲DRANの端に存在するとき、ステップS100で保持部100に保持された画像IMGaから障害物の画像BIMGaを抽出する。そして、抽出部130は、抽出した画像BIMGaを保持部140に保持する。
また、例えば、描画部150は、表示範囲DRAN外に障害物が存在する場合、画像BIMGb(予め用意された警告用の画像、または、保持部140に保持されている障害物の過去の画像BIMGa)を保持部160に保持する。これにより、表示範囲DRAN外に障害物が存在する場合、予め用意された警告用の画像と障害物の過去の画像BIMGaのいずれかが保持部160に保持される。
ステップS100、S110、S200の処理により、モニタ40に表示する画像IMGc(画像IMGb、BIMGaを含む画像や画像IMGb)が保持部160に保持される。
ステップS300では、画像処理装置50は、保持部160に保持されている画像IMGcをモニタ40に転送する。これにより、カメラ20およびセンサ30からのデータに基づいて生成された画像IMGcがモニタ40に表示される。
図4は、図1に示した判定部120、抽出部130および描画部150の動作の一例を示している。すなわち、図4は、図3に示したステップS200の処理の一例を示している。したがって、図4の動作は、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに図4の動作を実行させてもよい。すなわち、プロセッサは、表示プログラムを読み取り、図4の動作を実行してもよい。
ステップS202では、例えば、判定部120は、センサ30の検知結果INFaをセンサ30から受け、センサ30が障害物を検知したか否かを検知結果INFaに基づいて判定する。障害物が検知されているとき(ステップS202のYes)、画像処理装置50の動作は、ステップS210に移る。
一方、障害物が検知されていないとき(ステップS202のNo)、判定部120は、例えば、障害物が検知されていないことを示す判定結果INFcを、抽出部130に転送する。そして、障害物が検知されていないとき、画像処理装置50の動作は、ステップS204に移る。例えば、画像処理装置50は、ステップS204の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。
ステップS204では、抽出部130は、障害物の画像BIMGaを保持部140から削除する。これにより、保持部140に保持されている障害物の画像BIMGaが削除される。この結果、この実施形態では、誤った画像が障害物の画像BIMGaとしてモニタ40に表示されることを防止できる。
ステップS210では、判定部120は、ステップS202で受けた検知結果INFaが示す障害物が追跡中の障害物か否かを判定する。例えば、判定部120は、今回のステップS202で検知されている障害物が前回のステップS202で検知された障害物と同じ場合、今回のステップS202で検知されている障害物は、追跡中の障害物であると判定する。
すなわち、判定部120は、今回のステップS202で検知されている障害物が前回のステップS202で検知された障害物と異なる場合、今回のステップS202で検知されている障害物は、追跡中の障害物でないと判定する。なお、判定部120は、例えば、前回のステップS202で障害物が検知されていない場合、今回のステップS202で検知されている障害物は、追跡中の障害物でないと判定する。
障害物が追跡中の障害物であるとき(ステップS210のYes)、画像処理装置50の動作は、ステップS220に移る。一方、障害物が追跡中の障害物でないとき(ステップS210のNo)、判定部120は、例えば、障害物が追跡中の障害物でないことを示す判定結果INFcを、抽出部130に転送する。そして、障害物が追跡中の障害物でないとき、画像処理装置50の動作は、ステップS212に移る
ステップS212では、抽出部130は、障害物の画像BIMGaを保持部140から削除する。これにより、保持部140に保持されている障害物の画像BIMGaが削除される。この結果、この実施形態では、誤った画像が障害物の画像BIMGaとしてモニタ40に表示されることを防止できる。画像処理装置50は、ステップS212の処理を実行した後、ステップS220の処理を実行する。
ステップS220では、判定部120は、センサ30で検知された障害物が表示範囲DRAN内に存在するか否かを検知結果INFaに基づいて判定する。すなわち、判定部120は、センサ30で検知された障害物が画像IMGbに存在するか否かを検知結果INFaに基づいて判定する。例えば、判定部120は、障害物400の全体が表示範囲DRAN内に存在している場合、障害物400が表示範囲DRAN内に存在していると判定する。したがって、判定部120は、障害物400の少なくとも一部が表示範囲DRAN外に存在している場合、障害物400が表示範囲DRAN内に存在していないと判定する。なお、判定部120は、障害物400の少なくとも一部が表示範囲DRAN内に存在している場合、障害物400が表示範囲DRAN内に存在していると判定してもよい。
障害物が表示範囲DRAN内に存在するとき(ステップS220のYes)、画像処理装置50の動作は、ステップS230に移る。すなわち、障害物が画像IMGbに存在するとき、画像処理装置50の動作は、ステップS230に移る。
一方、障害物が表示範囲DRAN内に存在しないとき(ステップS220のNo)、判定部120は、例えば、センサ30で検知された障害物が表示範囲DRAN内に存在しないことを示す判定結果INFbを、描画部150に転送する。そして、障害物が表示範囲DRAN内に存在しないとき、画像処理装置50の動作は、ステップS250に移る。すなわち、障害物が画像IMGbに存在しないとき、画像処理装置50の動作は、ステップS250に移る。このように、表示範囲DRAN外に存在する障害物がセンサ30で検知されたとき、画像処理装置50の動作は、ステップS250に移る。
ステップS230では、判定部120は、センサ30で検知された障害物の位置が表示範囲DRANの端か否かを検知結果INFaに基づいて判定する。すなわち、判定部120は、障害物が画像IMGbの端に存在するか否かを検知結果INFaに基づいて判定する。障害物の位置が表示範囲DRANの端のとき(ステップS230のYes)、判定部120は、例えば、障害物が表示範囲DRANの端に位置していることを示す判定結果INFcを、抽出部130に転送する。
そして、障害物の位置が表示範囲DRANの端のとき、画像処理装置50の動作は、ステップS240に移る。すなわち、障害物が画像IMGbの端に存在するとき、画像処理装置50の動作は、ステップS240に移る。例えば、画像処理装置50は、ステップS240の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。
一方、障害物の位置が表示範囲DRANの端でないとき(ステップS230のNo)、画像処理装置50は、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。すなわち、障害物が画像IMGbの端に存在しないとき、センサ30の検知結果INFaに応じた処理は終了する。
ステップS240では、抽出部130は、障害物の画像BIMGaを保持部140に保持する。例えば、抽出部130は、図3のステップS100で保持部100に保持された画像IMGaを読み出す。そして、抽出部130は、センサ30で検知された障害物の範囲に対応する画像BIMGaを画像IMGaから抽出し、抽出した障害物の画像BIMGaを保持部140に保持する。
例えば、障害物が表示範囲DRAN外に移動する前のタイミングでは、障害物が表示範囲DRANの端に位置している可能性は、障害物が表示範囲DRANの中央に位置している可能性に比べて、高い。したがって、この実施形態では、表示範囲DRANの端に位置している障害物の画像BIMGaを保持部140に保持することにより、障害物が表示範囲DRAN外に移動する直前の状態に近い状態の障害物の画像を保持できる。
ステップS250では、例えば、描画部150は、表示範囲DRAN外に存在する障害物の画像BIMGaが保持部140に保持されているか否かを判定する。すなわち、描画部150は、表示範囲DRAN外に存在する障害物の過去の画像BIMGaが存在するか否かを判定する。
障害物の画像BIMGaが保持部140に保持されているとき(ステップS250のYes)、画像処理装置50の動作は、ステップS252に移る。すなわち、障害物の過去の画像BIMGaが存在するとき、画像処理装置50の動作は、ステップS252に移る。例えば、画像処理装置50は、ステップS252の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。
一方、障害物の画像BIMGaが保持部140に保持されていないとき(ステップS250のNo)、画像処理装置50の動作は、ステップS254に移る。すなわち、障害物の過去の画像BIMGaが存在しないとき、画像処理装置50の動作は、ステップS254に移る。例えば、画像処理装置50は、ステップS254の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。
ステップS252では、描画部150は、保持部140に保持されている障害物の画像BIMGaを描画する。例えば、描画部150は、障害物の画像BIMGaを保持部140から読み出し、読み出した画像BIMGaを画像BIMGbとして保持部160に保持する。これにより、画像BIMGb(障害物の画像BIMGa)が描画される。
ステップS254では、描画部150は、予め用意された警告用の画像を描画する。例えば、描画部150は、予め用意された警告用の画像を画像BIMGbとして保持部160に保持する。これにより、画像BIMGb(警告用の画像)が描画される。
このように、画像処理装置50は、表示範囲DRAN外に存在する障害物がセンサ30で検知されたとき、障害物の過去の画像BIMGaまたは警告用の画像を、保持部160に保持する。例えば、表示範囲DRAN外に存在する障害物の過去の画像BIMGaが保持部140に保持されている場合、画像処理装置50は、障害物の過去の画像BIMGaを保持部160に保持する。また、図3で説明したように、保持部160には、表示範囲DRANの画像IMGbが保持されている。この場合、表示範囲DRANの画像IMGbと障害物の画像BIMGaとが保持部160に保持されている。これにより、表示範囲DRANの画像IMGbと障害物の画像BIMGaとがモニタ40に表示される。
したがって、システム10は、表示範囲DRAN外に存在する障害物の過去の画像BIMGaが保持部140に保持されているとき、表示範囲DRANの画像IMGbのほかに障害物の画像BIMGaをモニタ40に表示できる。すなわち、この実施形態では、システム10の利用者に伝える情報の低減を抑制できる。
なお、画像処理装置50の動作は、図3および図4に示した例に限定されない。例えば、ステップS230の処理は、省かれてもよい。この場合、抽出部130は、例えば、障害物の全体が表示範囲DRAN内に存在することを示す検知結果INFaを画像処理装置50が受ける度に、障害物の画像BIMGaを画像IMGaから抽出する。そして、抽出部130は、抽出した障害物の画像BIMGaを保持部140に保持する。これにより、保持部140に保持されている画像BIMGaは、新しい画像BIMGaに更新される。なお、障害物の少なくとも一部が表示範囲DRAN外に存在するとき、障害物の画像BIMGaは、抽出されない。したがって、保持部140に保持されている画像BIMGaは、障害物が表示範囲DRAN外に移動する直前の画像であり、表示範囲DRANの端に位置している障害物の画像BIMGaに対応している。
また、例えば、画像処理装置50が鏡像処理を実行する場合、描画部150は、保持部140から読み出した画像BIMGaを左右反転して、画像BIMGbを生成してもよい。あるいは、画像処理装置50が鏡像処理を実行する場合、例えば、抽出部130は、画像IMGaから抽出した障害物の画像を左右反転し、左右反転した画像を画像BIMGbとして保持部140に保持してもよい。
図5は、障害物が存在しないときにモニタ40に表示される画像IMGcの一例を示している。なお、図5は、車両300の右側面に配置されたカメラ20およびセンサ30を含むシステム10のモニタ40に表示される画像IMGcの一例を示している。以下、車両300の右側面に配置されたカメラ20およびセンサ30を含むシステム10を中心に説明する。
モニタ40は、例えば、画像IMGbの表示用の領域と画像BIMGb(障害物の画像BIMGaまたは警告用の画像)の表示用の領域とを有している。モニタ40に表示される画像IMGb、BIMGaは、例えば、鏡像である。なお、画像BIMGbの表示用の領域は、モニタ40に画像BIMGbが表示されない場合、余白BSPである。
図5の例では、センサ30の検知範囲SRAN内に障害物は存在していない。このため、センサ30は、障害物を検知しない。したがって、保持部160は、障害物の画像BIMGaおよび警告用の画像のいずれも保持していない。この場合、モニタ40には、表示範囲DRANの画像IMGbが画像IMGcとして表示される。
画像IMGbには、例えば、車両300の一部が映っている。なお、表示範囲DRAN内に障害物が存在しないため、画像IMGbには、障害物は映っていない。また、画像BIMGbの表示用の領域は、余白BSPである。
図6は、表示範囲DRAN内に障害物400が存在するときにモニタ40に表示される画像IMGcの一例を示している。図6の例では、センサ30で検知された障害物400は、表示範囲DRAN内に存在する。なお、図6の例は、表示範囲DRAN内に存在する障害物400の位置は、表示範囲DRANの端ではない。図6の符号OP1、OP2、OP3、OP4は、センサ30で検知された障害物400を板状の四角形に換算したときの四角形の各頂点を示している。頂点OP1、OP2、OP3、OP4の位置は、表示範囲DRAN内である。
したがって、保持部160は、障害物400の画像BIMGaおよび警告用の画像のいずれも保持していない。このため、モニタ40には、表示範囲DRANの画像IMGbが画像IMGcとして表示される。なお、表示範囲DRAN内に障害物400が存在するため、画像IMGbには、障害物400が映っている。また、センサ30で検知された障害物400の位置が表示範囲DRAN外でないため、画像BIMGbの表示用の領域は、余白BSPである。
図7は、表示範囲DRAN内に障害物400が存在するときにモニタ40に表示される画像IMGcの別の例を示している。図7の符号OP1、OP2、OP3、OP4の意味は、図6と同様である。図7の例では、センサ30で検知された障害物400は、表示範囲DRANの端に位置している。
例えば、頂点OP1、OP2の位置は、表示範囲DRANの端に隣接している。このため、モニタ40に表示される画像IMGbの端に障害物400が映っている。画像IMGb内の破線の枠は、障害物400に対応する四角形を分かりやすくするために記載したものであり、モニタ40には表示されない。なお、例えば、破線の枠内の画像(あるいは、左右反転前の破線の枠内の画像)は、障害物400の画像BIMGaとして保持部140に保持されている。
図8は、表示範囲DRAN外に障害物400が存在するときにモニタ40に表示される画像IMGcの一例を示している。図8の符号OP1、OP2、OP3、OP4の意味は、図6と同様である。図8の例では、センサ30で検知された障害物400は、表示範囲DRAN外に存在する。
なお、図8は、表示範囲DRAN内から表示範囲DRAN外に移動した障害物400をセンサ30が検知している状態を示している。例えば、図8に示した状態は、図7に示した状態の後の状態に対応している。したがって、障害物400の過去の画像BIMGaは、保持部140に保持されている。
例えば、画像処理装置50は、図4に示したステップS210の処理において、センサ30で検知された障害物400が追跡中の障害物であると判定する。また、例えば、画像処理装置50は、図4に示したステップS250の処理において、表示範囲DRAN外に存在する障害物の画像BIMGaが保持部140に保持されていると判定する。
したがって、保持部160は、障害物400の過去の画像BIMGaを画像BIMGbとして保持している。すなわち、保持部160は、表示範囲DRANの画像IMGbと障害物400の過去の画像BIMGaとを保持している。このため、表示範囲DRANの画像IMGbと画像BIMGb(障害物400の過去の画像BIMGa)とを含む画像IMGcが、モニタ40に表示される。
表示範囲DRAN内に障害物400が存在しないため、画像IMGbには、障害物400は映っていない。また、画像BIMGbは、例えば、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaである。
このように、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、表示範囲DRANの画像IMGbに加えて、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaをモニタ40に表示できる。これにより、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、障害物400の存在を運転者に提示し続けることができる。
なお、画像処理装置50は、障害物400の画像BIMGaを画像BIMGbとしてモニタ40に表示する際に、画像BIMGaに対して拡大、縮小等を実行し、画像BIMGaのサイズを画像BIMGbの表示用の領域に合うように調整してもよい。
図9は、表示範囲DRAN外に障害物400が存在するときにモニタ40に表示される画像IMGcの別の例を示している。図9の符号OP1、OP2、OP3、OP4の意味は、図6と同様である。図9の例では、センサ30で検知された障害物400は、表示範囲DRAN外に存在する。図9の破線の障害物400aは、センサ30が検知した障害物400bの前の状態(障害物400、表示範囲DRAN、検知範囲SRANの相対的な位置関係)を示している。例えば、図9の状態では、センサ30は、センサ30の検知範囲SRAN外から検知範囲SRAN内に表示範囲DRANを通過せずに移動した障害物400を検知している。
したがって、障害物400bの過去の画像BIMGaは、保持部140に保持されていない。このため、保持部160は、予め用意された警告用の画像(図9では、感嘆符が描かれた画像)を画像BIMGbとして保持している。すなわち、保持部160は、表示範囲DRANの画像IMGbと警告用の画像とを保持している。このため、表示範囲DRANの画像IMGbと画像BIMGb(警告用の画像)とを含む画像IMGcが、モニタ40に表示される。
表示範囲DRAN内に障害物400が存在しないため、画像IMGbには、障害物400は映っていない。また、障害物400bの過去の画像BIMGaが保持部140に保持されていないため、画像BIMGbは、例えば、感嘆符が描かれた警告用の画像である。
このように、障害物400bの過去の画像BIMGaが保持部140に保持されていない場合には、障害物400bの画像BIMGaの代わりに、障害物400が表示範囲DRAN外に存在することを知らせる警告用の画像がモニタ40に表示される。これにより、この実施形態では、障害物400が検知範囲SRAN外から検知範囲SRAN内に表示範囲DRANを通過せずに移動したときにも、障害物400の存在を運転者に提示することができる。
図10は、センサ30による障害物30の検知の概要を示している。障害物400(t1)は、時刻t1での障害物400を示し、障害物400(t2)は、時刻t2での障害物400を示している。また、中心水平角度θh、中心垂直角度θv、距離L、横方向の大きさWD(以下、幅WDとも称する)、縦方向の大きさHT(以下、高さHTとも称する)は、センサ30の検知結果INFaに含まれる情報の一例を示している。なお、符号θh、θv、L、WD、HTの末尾の数字は、時刻tの末尾の数字に対応している。
例えば、センサ30は、時刻t1に検知した障害物400(t1)の検知結果INFaとして、中心水平角度θh1、中心垂直角度θv1、距離L1、幅WD1、高さHT1、時刻t1を示す情報を画像処理装置50の判定部120に転送する。また、例えば、センサ30は、時刻t2に検知した障害物400(t2)の検知結果INFaとして、中心水平角度θh2、中心垂直角度θv2、距離L2、幅WD2、高さHT2、時刻t2を示す情報を画像処理装置50の判定部120に転送する。
ここで、例えば、中心水平角度θhは、障害物400の検知範囲の中心とセンサ30とを結ぶ線とZ軸(センサ30の向いている方向)との水平方向の角度である。また、中心垂直角度θvは、障害物400の中心とセンサ30とを結ぶ線とZ軸(センサ30の向いている方向)との垂直方向の角度である。距離Lは、障害物400の中心とセンサ30との距離である。幅WDは、障害物400を垂直に伸びた板状の物体としたときの水平方向の大きさである。高さHTは、障害物400を垂直に伸びた板状の物体としたときの垂直方向の大きさである。例えば、距離L、幅WD、高さHTの単位は、メートルである。
判定部120は、例えば、センサ30から受けた前回(例えば、時刻t1)の検知結果INFaを保持している。そして、判定部120は、現在(例えば、時刻t2)の検知結果INFaをセンサ30から受けたとき、前回(例えば、時刻t1)の検知結果INFaと今回(例えば、時刻t2)の検知結果INFaとを用いて、障害物400を追跡できているか否かを判定する。なお、今回の検知結果INFaは、次回の判定(障害物400を追跡できているか否かの判定)に用いられるため、保持される。
障害物400を追跡できているか否かは、例えば、前回および今回の検知結果INFaから算出される障害物400の中心位置の移動量と、前回および今回の検知結果INFaから算出される障害物400の大きさの変化率とに基づいて判定される。先ず、障害物400の中心位置の移動量の算出について説明する。
センサ30の位置を原点とし、センサ30の向いている方向をZ軸、Z軸を法線ベクトルとする平面内で地面と平行な方向をX軸、Z軸を法線ベクトルとする平面内でX軸に垂直な方向をY軸とする。すなわち、X軸、Y軸、Z軸は、センサ30の座標系の軸である。また、前回検知された障害物400(t1)の中心位置を座標(x1、y1、z1)とし、今回検知された障害物400(t2)の中心位置を座標(x2、y2、z2)とする。
障害物400(t1)の中心位置(x1、y1、z1)から障害物400(t2)の中心位置(x2、y2、z2)までの移動量をLmとした場合、移動量Lmは、式(1)で表される。
Figure 0006194713
なお、障害物400(t1)の中心位置(x1、y1、z1)は、中心水平角度θh1、中心垂直角度θv1、距離L1を用いて、式(2)、式(3)および式(4)で表される。
x1=L1・cos(θv1)・sin(θh1) ‥‥(2)
y1=L1・cos(θh1)・sin(θv1) ‥‥(3)
z1=L1・cos(θh1)・cos(θv1) ‥‥(4)
また、障害物400(t2)の中心位置(x2、y2、z2)は、中心水平角度θh2、中心垂直角度θv2、距離L2を用いて、式(5)、式(6)および式(7)で表される。
x2=L2・cos(θv2)・sin(θh2) ‥‥(5)
y2=L2・cos(θh2)・sin(θv2) ‥‥(6)
z2=L2・cos(θh2)・cos(θv2) ‥‥(7)
ここで、車両300を基準にした障害物400の相対的な速さをVrとした場合、速さVrは、前回の検知時刻t1および今回の検知時刻t2を用いて、式(8)で表される。
Vr=Lm/(t2−t1) ‥‥(8)
例えば、判定部120は、速さVrが所定値(例えば、秒速2メートル)以下の場合、時刻t1、t2で同じ障害物400が検知されたと判断する。すなわち、時刻t2で検知された障害物400は、時刻t1で検知された追跡中の障害物400が移動したものであると判定される。
次に、前回および今回の検知結果INFaから算出される障害物400の大きさの変化率の算出について説明する。
障害物400の大きさの変化率をRとした場合、変化率Rは、前回検知された障害物400(t1)の幅WD1および高さHT1と、今回検知された障害物400(t2)の幅WD2および高さHT2と用いて、式(9)で表される。
R=(WD2・HT2)/(WD1・HT1) ‥‥(9)
なお、式(9)は、障害物400を板状の物体と仮定したときの面積の変化率Rを表している。センサ30で検知される障害物400の大きさ(幅WD、高さHT)は、障害物400の見る角度等の変化により、変化する。このため、例えば、判定部120は、変化率Rが所定の範囲内(例えば、±10%(0.9から1.1))の場合、時刻t1、t2で同じ障害物400が検知されたと判断する。
例えば、判定部120は、速さVrが所定値以下である条件と、変化率Rが所定の範囲内である条件との両方を満たしたときに、追跡中の障害物400(前回検知した障害物400と同じ障害物400)を検知したと判定する。なお、判定部120は、速さVrが所定値以下である条件と、変化率Rが所定の範囲内である条件のうちの一方に基づいて、障害物400を追跡できているか否かを判定してもよい。
図11は、センサ30により検知される障害物400の大きさの一例を示している。図11のX軸、Y軸、Z軸は、センサ30の座標系の軸であり、図10で説明したX軸、Y軸、Z軸と同様である。また、図11の位置OP1、OP2、OP3、OP4は、障害物400を板状の物体と仮定したときの障害物400の四隅の位置(四角形の頂点)を示している。幅WDおよび高さHTは、障害物400を検知したセンサ30の検知結果INFaから得られる障害物400の幅および高さに対応している。
例えば、Z軸が障害物400の中心を通過する場合、位置OP1−OP4のZ座標は、障害物400の中心とセンサ30との距離Lで表される。したがって、Z軸が障害物400の中心を通過する場合、位置OP1−OP4の各座標(x、y、z)は、幅WD、高さHT、距離Lを用いて、式(10)−式(13)で表される。
OP1(x、y、z)=(−WD/2、HT/2、L) ‥‥(10)
OP2(x、y、z)=(−WD/2、−HT/2、L) ‥‥(11)
OP3(x、y、z)=(WD/2、HT/2、L) ‥‥(12)
OP4(x、y、z)=(WD/2、−HT/2、L) ‥‥(13)
ここで、障害物400の中心が水平方向および垂直方向にそれぞれ中心水平角度θhおよび中心垂直角度θvだけ移動した場合、回転後の位置OP1−OP4は、角度θh、θvの回転行列を用いて、式(14)−(17)で表される。
Figure 0006194713
このように、障害物400の四隅の位置OP1、OP2、OP3、OP4は、検知結果INFaの幅WD、高さHT、距離L、中心水平角度θhおよび中心垂直角度θvを用いて、センサ30の座標系で表される。
図12は、障害物400の位置が表示範囲DRAN内か否かの判定の概要を示している。図12のU軸、V軸、S軸は、車両300の座標系の軸を示している。例えば、車両300を上から見た場合の車両300の中心で、地面の位置を原点とする。そして、車両300の前方向をV軸、車両300の右方向をU軸、上方向をS軸とする。例えば、図12では、車両300の座標系でのカメラ20の座標(u、v、s)を、座標(Uc、Vc、Sc)とし、車両300の座標系でのセンサ30の座標(u、v、s)を、座標(Uq、Vq、Sq)とする。
また、角度PanC、PanQは、車両300の座標系のUV平面でのカメラ20およびセンサ30のそれぞれのパン角度(U軸が0度)を示している。また、角度TiltC、TiltQは、車両300の座標系のUV平面に対するカメラ20およびセンサ30のそれぞれのチルト角度(UV平面に交わる方向とUV平面との角度)である。チルト角度は、例えば、UV平面より上をプラスとする。なお、図12の例では、角度TiltC、TiltQは、0度である。角度RollC、RollQは、カメラ20およびセンサ30のそれぞれのロール角度である。例えば、角度RollCは、カメラ30の向く方向の回りを回転するロール角度である。なお、図12の例では、角度RollC、RollQは、0度である。角度RollCが0度の場合、例えば、モニタ40に表示される地面(画像IMGbに表示される地面)に垂直な方向とモニタ40の縦方向とがほぼ一致する。
画像処理装置50は、例えば、障害物400の四隅の位置OP1、OP2、OP3、OP4の座標を、センサ30の座標系から車両300の座標系に変換する。センサ30の座標系での位置OP1、OP2、OP3、OP4の座標は、図11で説明したように、検知結果INFaの幅WD、高さHT、距離L、中心水平角度θhおよび中心垂直角度θvを用いて、式(14)−式(17)で表される。
なお、図12では、位置OP1−OP4のセンサ30の座標系での各座標(x、y、z)を、座標(Xop1、Yop1、Zop1)、座標(Xop2、Yop2、Zop2)、座標(Xop3、Yop3、Zop3)、座標(Xop4、Yop4、Zop4)とする。また、位置OP1−OP4の車両300の座標系での各座標(u、v、s)を、座標(Uop1、Vop1、Sop1)、座標(Uop2、Vop2、Sop2)、座標(Uop3、Vop3、Sop3)、座標(Uop4、Vop4、Sop4)とする。
位置OP1−OP4に対するセンサ30の座標系から車両300の座標系への変換は、式(18)−式(21)で与えられる。
Figure 0006194713
以下、式(18)を導き出す過程を説明する。例えば、センサ30の座標系のXZ平面の座標は、車両300の座標系のUV平面上で角度PanQだけ回転させ、センサ30のUV平面での座標(Uq、Vq)に対応するオフセットを加算することにより、UV平面の座標に変換される。したがって、位置OP1のUV平面での座標(Uop1、Vop1)は、位置OP1のXZ平面での座標(Xop1、Zop1)、角度PanQ、センサ30のUV平面での座標(Uq、Vq)を用いて、式(22)で表される。
Figure 0006194713
また、車両300の座標系での位置OP1のS座標(Sop1)は、センサ30の座標系での位置OP1のY座標(Yop1)に、車両300の座標系でのセンサ30のS座標(Sq)を加算した値である。したがって、位置OP1のS座標(Sop1)は、位置OP1のY座標(Yop1)およびセンサ30のS座標(Sq)を用いて、式(23)で表される。
Sop1=Yop1+Sq ‥‥(23)
式(22)および式(23)をまとめて行列式で表現すると、座標(Uop1、Vop1、Sop1)は、式(24)で表される。
Figure 0006194713
そして、式(24)の座標(Uq、Vq、Sq)の加算部分を行列に組み込み、行列の掛け算のみで表現すると、式(18)が導き出される。式(19)−式(21)も、式(18)と同様に導き出される。
次に、位置OP1−OP4が表示範囲DRAN内か否かを判定する際の条件について説明する。画角φwは、表示範囲DRANの水平方向の範囲を角度で表したときの画角を示している。この実施形態では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。したがって、画角φwは、カメラ20の水平方向の画角を示している。
例えば、表示範囲DRAN内のUV平面の座標では、カメラ20に向かう線分とU軸方向に沿う線分との角度は、角度“PanC−φw/2”以上で角度“PanC+φw/2”以下である。したがって、カメラ20の位置(Uc、Vc)から見た位置OP1−OP4のU軸に対する水平方向のそれぞれの角度が角度“PanC−φw/2”以上で角度“PanC+φw/2”以下の場合、位置OP1−OP4は、表示範囲DRAN内に存在する。
カメラ20の位置(Uc、Vc)から見た位置OP1−OP4のU軸に対する水平方向のそれぞれの角度をθhop1、θhop2、θhop3、θhop4とする。この場合、角度θhop1、位置OP1のUV平面における座標(Vop1、Uop1)およびカメラ20のUV平面における座標(Uc、Vc)の関係は、式(25)で表される。
tan(θhop1)=(Vop1−Vc)/(Uop1−Uc) ‥‥(25)
角度θhop2−θhop4、位置OP2−OP4のUV平面における座標およびカメラ20のUV平面における座標(Uc、Vc)の関係も、式(25)と同様の関係式で表される。したがって、角度θhop1−θhop4は、式(26)−式(29)で表される。
θhop1=tan−1((Vop1−Vc)/(Uop1−Uc)) ‥‥(26)
θhop2=tan−1((Vop2−Vc)/(Uop2−Uc)) ‥‥(27)
θhop3=tan−1((Vop3−Vc)/(Uop3−Uc)) ‥‥(28)
θhop4=tan−1((Vop4−Vc)/(Uop4−Uc)) ‥‥(29)
例えば、画像処理装置50の判定部120は、角度θhop1−θhop4の全てが角度“PanC−φw/2”以上で角度“PanC+φw/2”以下の場合、表示範囲DRANの水平方向について、表示範囲DRAN内に障害物400が存在すると判定する。なお、判定部120は、角度θhop1、θhop2の一方と角度θhop3、θhop4の一方とを確認することにより、表示範囲DRANのうちの水平方向の範囲に障害物400が存在するか否かを判定してもよい。
次に、表示範囲DRANの垂直方向について説明する。画角φvは、表示範囲DRANの垂直方向の範囲を角度で表したときの画角を示している。この実施形態では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。したがって、画角φvは、カメラ20の垂直方向の画角を示している。ここで、図12では、カメラ20のS方向の位置(高さ)がセンサ30のS方向の位置(高さ)と同じであるとして説明する。
例えば、角度TiltCが0度であるため、表示範囲DRAN内のS座標では、カメラ20に向かう線分とUV平面との角度は、角度“−φv/2”以上で角度“φv/2”以下である。位置OP1−OP4からカメラ20に向かう線分とUV平面とのそれぞれの角度をθvop1、θvop2、θvop3、θvop4とする。この場合、角度θvop1、位置OP1の座標(Vop1、Uop1、Sop1)およびカメラ20の座標(Uc、Vc、Sc)の関係は、式(30)で表される。
Figure 0006194713
なお、式(30)の右辺の分母は、位置OP1とカメラ20とのUV平面における距離を表している。角度θvop2−θvop4、位置OP2−OP4の座標およびカメラ20の座標(Uc、Vc、Sc)の関係も、式(30)と同様の関係式で表される。したがって、角度θvop1−θvop4は、式(31)−式(34)で表される。
Figure 0006194713
例えば、判定部120は、角度θvop1−θvop4の全てが角度“−φv/2”以上で角度“φv/2”以下の場合、表示範囲DRANの垂直方向について、表示範囲DRAN内に障害物400が存在すると判定する。なお、判定部120は、角度θvop1、θvop3の一方と角度θvop2、θvop4の一方とを確認することにより、表示範囲DRANのうちの垂直方向の範囲に障害物400が存在するか否かを判定してもよい。
このように、判定部120は、カメラ20から見た位置OP(OP1−OP4)の水平および垂直方向の角度θhop(θhop1−θhop4)、θvop(θvop1−θvop4)に基づいて、障害物400の位置が表示範囲DRAN内か否かを判定する。なお、判定部120は、障害物400の少なくとも一部が表示範囲DRAN内に存在している場合、障害物400が表示範囲DRAN内に存在していると判定してもよい。
また、例えば、判定部120は、以下に示す式(35)−式(38)の少なくとも1つを満たす位置OP(OP1−OP4)が存在する場合、障害物400が画像IMGbの端に存在すると判定する。
θhop=PanC−φw/2 ‥‥(35)
θhop=PanC+φw/2 ‥‥(36)
θvop=−φv/2 ‥‥(37)
θvop=φv/2 ‥‥(38)
なお、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動するまでの撮影期間において、角度θhop等が表示範囲DRANの端に完全に重なる状態が撮影されない場合もある。このため、判定部120は、所定の幅(例えば、±5度)の余裕を持って、式(35)−式(38)の少なくとも1つを満たすか判定してもよい。例えば、所定の幅をMh、Mvとした場合、判定部120は、以下に示す式(39)−式(42)の少なくとも1つを満たす位置OP(OP1−OP4)が存在する場合、障害物400が画像IMGbの端に存在すると判定する。
PanC−φw/2−Mh≦θhop≦PanC−φw/2+Mh ‥‥(39)
PanC+φw/2−Mh≦θhop≦PanC+φw/2+Mh ‥‥(40)
−φv/2−Mv≦θvop≦−φv/2+Mv ‥‥(41)
φv/2−Mv≦θvop≦φv/2+Mv ‥‥(42)
なお、所定の幅Mh、Mvは、プラス側とマイナス側とで異なる値でもよい。障害物400が画像IMGbの端に存在すると判定された場合、図13に示すように、障害物400の画像BIMGaが画像IMGaから抽出される。
また、判定部120は、例えば、障害物400の少なくとも一部が画像IMGbの端を超えたか否かを角度θhop、θvopに基づいて判定することにより、障害物400が画像IMGbの端に存在するか否かを判定してもよい。この場合、障害物400の少なくとも一部が画像IMGbの端を超えたと判定される前まで、障害物400の画像BIMGaは、画像IMGaから抽出される。そして、保持部140に保持されている画像BIMGaは、抽出された画像BIMGaに更新される。なお、障害物400の少なくとも一部が画像IMGbの端を超えたと判定されたときには、障害物400の画像BIMGaは、抽出されない。すなわち、保持部140には、障害物400の少なくとも一部が画像IMGbの端を超えたと判定される前に抽出された障害物400の画像BIMGaが保持されている。
図13は、障害物400の画像BIMGaの抽出の一例を示している。なお、図13では、図7等との対応を容易にするために、保持部100から読み出される画像IMGaは、鏡像処理(左右反転処理)が実行された画像として説明する。図13では、画像IMGaの中心を原点とし、画像IMGaの横方向をW軸、画像IMGaの縦方向をH軸とする。また、画像IMGaの横幅SCWおよび縦幅SCHは、画像IMGaがビットマップ画像の場合、画像IMGaの横方向および縦方向の画素数をそれぞれ示している。
なお、カメラ20のレンズの光軸に対する光の入射角は、例えば、入射した光の画像IMGa上の投影位置から画像IMGaの中心までの距離と比例関係にある。例えば、図12において、光の入射角が光軸(カメラの向き)に対して“φw/2”の場合、入射した光の画像IMGa上の投影位置から画像IMGaの中心までのW方向に沿う距離は、“SCW/2”画素に相当する距離である。すなわち、光の入射角が光軸(カメラの向き)に対して“φw/2”の場合、入射した光の画像IMGa上の投影位置は、画像IMGaの端である。また、例えば、光の入射角が光軸(カメラの向き)に対して“φw/4”の場合、入射した光の画像IMGa上の投影位置から画像IMGaの中心までのW方向に沿う距離は、“SCW/4”画素に相当する距離である。
画像処理装置50の抽出部130は、例えば、障害物400が画像IMGbの端に存在すると判定された場合、位置OP1−OP4の画像IMGa上の4つの点で囲まれる範囲(図13の破線の枠内)の画像を、障害物400の画像BIMGaとして抽出する。例えば、位置OP1−OP4の画像IMGa上の各座標(W、H)を、座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)とする。
この場合、位置OP1−OP4の画像IMGa上の各座標(W、H)は、横幅SCW、縦幅SCH、図12で説明した角度θhop1−θhop4、θvop1−θvop4、角度PanC、画角φw、φvを用いて、式(43)−式(50)で表される。なお、式(43)−式(50)は、画像IMGaが鏡像である場合の位置OP1−OP4の画像IMGa上で各座標(W、H)を表している。
OP1w=−(θhop1−PanC)・(SCW/φw) ‥‥(43)
OP1h=θvop1・(SCH/φv) ‥‥(44)
OP2w=−(θhop2−PanC)・(SCW/φw) ‥‥(45)
OP2h=θvop2・(SCH/φv) ‥‥(46)
OP3w=−(θhop3−PanC)・(SCW/φw) ‥‥(47)
OP3h=θvop3・(SCH/φv) ‥‥(48)
OP4w=−(θhop4−PanC)・(SCW/φw) ‥‥(49)
OP4h=θvop4・(SCH/φv) ‥‥(50)
例えば、抽出部130は、式(43)−式(50)に基づいて、画像IMGa上の座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)を算出する。そして、抽出部130は、画像IMGa上の座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)で囲まれる範囲(図13の破線の枠内)の画像を、障害物400の画像BIMGaとして抽出する。また、抽出部130は、抽出した画像BIMGaを保持部140に保持する。
なお、抽出部130は、画像IMGbから障害物400の画像BIMGaを抽出してもよい。また、画像IMGa上の座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)は、判定部120で算出されてもよい。
以上、図1から図13に示した実施形態の画像処理装置50、システム10および表示プログラムでは、障害物400が画像IMGbの端に存在するときの障害物400の画像BIMGaが画像IMGa、IMGbの少なくとも一方から抽出される。例えば、画像処理装置50は、保持部100、140、160、生成部110、判定部120、抽出部130および描画部150を有している。
例えば、生成部110は、カメラ20で撮影された画像IMGaを保持部100から読み出し、画像IMGaからモニタ40に表示する画像IMGbを生成する。判定部120は、センサ30で検知された障害物400が画像IMGbに存在するか否かを判定し、障害物400が画像IMGbに存在するとき、障害物400が画像IMGbの端に存在するか否かを判定する。
抽出部130は、障害物400が画像IMGbの端に存在すると判定されたとき、障害物400の画像BIMGaを画像IMGaから抽出する。そして、抽出部130は、障害物400の画像BIMGaを保持部140に保持する。これにより、保持部140は、障害物400が表示範囲DRAN外に移動する直前の状態に近い状態の障害物400の画像BIMGaを保持できる。
描画部150は、センサ30で検知されている障害物400が画像IMGbに存在しないと判定され、かつ、障害物400の画像BIMGが保持部140に保持されているとき、モニタ40に表示する画像IMGcに障害物400の画像BIMGaを追加する。これにより、表示範囲DRANの画像IMGbと障害物の画像BIMGaとがモニタ40に表示される。
したがって、この実施形態では、表示範囲DRAN外に存在する障害物400の過去の画像BIMGaが保持部140に保持されているとき、表示範囲DRANの画像IMGbのほかに障害物400の画像BIMGaをモニタ40に表示できる。例えば、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、センサ30が障害物400を検知している間は、障害物400を追跡できる。そして、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動した場合でも、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaを、モニタ40に表示できる。
ここで、例えば、運転者が車室内のモニタ40を見るために動かす視線の範囲は、運転者が車室外のサイドミラーを見るために動かす視線の範囲に比べて、狭い。このため、表示範囲DRAN内の画像IMGbのみが表示されたモニタ40を運転者が確認した場合、運転者が得る情報量は、サイドミラーを使用したときに比べて、減少するおそれがある。なお、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaをモニタ40に表示できるため、運転者が得る情報量の減少分の一部を補うことができる。
例えば、この実施形態では、表示範囲DRAN内から表示範囲DRAN外に移動した障害物400をセンサ30が検知している間は、緊急の対応が必要な障害物400か否かを判断する情報として、障害物400の画像BIMGaを継続的に運転者に提供できる。これにより、運転者は、モニタ40に画像BIMGaが表示されないカメラシステムを使用するときに比べて、緊急の対応が必要な障害物400か否かを容易に判断できる。
このように、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
図14は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示した画像処理装置50に抽出判定部122が追加された画像処理装置50Aを、画像処理装置50の代わりに有している。システム10および画像処理装置50Aのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図13で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
画像処理装置50Aは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Aの動作を実行させてもよい。
画像処理装置50Aは、例えば、保持部100、140、160、生成部110、判定部120、抽出判定部122、抽出部130および描画部150を有している。抽出判定部122は、例えば、障害物400が画像IMGbの端に存在すると判定されたとき、障害物400の画像BIMGaを画像IMGaから抽出するか否かを画像IMGb内の障害物400の大きさに基づいて判定する。
例えば、抽出判定部122は、障害物400が画像IMGbの端に存在することを示す判定結果INFcを判定部120から受けたとき、画像IMGb内の障害物400の大きさが予め決められた下限値以上か否かを判定する。そして、抽出判定部122は、例えば、画像IMGb内の障害物400の大きさが下限値以上のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定する。障害物400の画像BIMGaを画像IMGaから抽出するか否かの判定結果INFdは、抽出部130に転送される。
例えば、抽出部130は、障害物400の画像BIMGaを画像IMGaから抽出することを示す判定結果INFdを抽出判定部122から受けたとき、保持部100に保持されている画像IMGaを読み出す。そして、抽出部130は、センサ30で検知された障害物400の範囲に対応する画像BIMGaを画像IMGaから抽出し、抽出した障害物400の画像BIMGaを保持部140に保持する。このように、抽出部130は、障害物400が画像IMGbの端に存在すると判定され、かつ、画像IMGb内の障害物400の大きさが下限値以上であると判定されたとき、障害物400の画像BIMGaを画像IMGaから抽出する。
これにより、下限値以上の大きさの障害物400がモニタ40に表示される。この場合、障害物400の画像BIMGaがモニタ40に表示されたときに、画像BIMGaが小さくなることを防止できる。
なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Aの構成および動作は、この例に限定されない。例えば、抽出判定部122は、障害物400が画像IMGbの端に存在することを示す判定結果INFcを判定部120から受けたとき、画像IMGb内の障害物400の大きさが予め決められた上限値以下か否かを判定してもよい。そして、抽出判定部122は、例えば、画像IMGb内の障害物400の大きさが上限値以下のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定してもよい。例えば、モニタ40の画像BIMGbの表示用の領域に合わせて上限値が設定されている場合、画像処理装置50Aは、画像BIMGaを縮小することなく、適切な大きさの画像BIMGaをモニタ40に表示できる。
あるいは、抽出判定部122は、画像IMGb内の障害物400の大きさが下限値以上で上限値以下のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定してもよい。また、抽出判定部122は、障害物400の画像BIMGaを画像IMGaから抽出するか否かを画像IMGa内の障害物400の大きさに基づいて判定してもよい。また、抽出部130は、障害物400の画像BIMGaを画像IMGbから抽出してもよい。
以上、図14に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
さらに、この実施形態では、抽出判定部122は、障害物400の画像BIMGaを画像IMGaから抽出するか否かを画像IMGb内の障害物400の大きさに基づいて判定する。例えば、抽出判定部122は、画像IMGb内の障害物400の大きさが下限値以上のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定する。この場合、下限値以上の大きさの障害物400がモニタ40に表示される。したがって、この実施形態では、障害物400の画像BIMGaがモニタ40に表示されたときに、画像BIMGaが小さくなることを防止できる。すなわち、この実施形態では、モニタ40に表示される画像BIMGaの解像度が不足することを防止できる。この結果、この実施形態では、鮮明な画像BIMGaを運転者に提供できる。
また、例えば、抽出判定部122は、画像IMGb内の障害物400の大きさが上限値以下のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定してもよい。この場合、この実施形態では、例えば、モニタ40の画像BIMGbの表示用の領域に合わせて上限値を設定することにより、画像BIMGaを縮小することなく、適切な大きさの画像BIMGaをモニタ40に表示できる。
図15は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示したカメラ20および画像処理装置50の代わりに、カメラ20Aおよび画像処理装置50Bを有している。この実施形態の画像処理装置50Bでは、調整部124が図1に示した画像処理装置50に追加されている。また、画像処理装置50Bは、図1に示した生成部110の代わりに生成部110Aを有している。システム10および画像処理装置50Bのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図13で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
画像処理装置50Bは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Bの動作を実行させてもよい。
カメラ20Aの撮影範囲CRANに対応する画角は、例えば、センサ30で障害物400が検知されていないときに表示される画像IMGbの表示範囲DRANに対応する画角より大きい。以下、センサ30で障害物400が検知されていないときに表示される画像IMGbの表示範囲DRANを通常表示範囲DRANとも称する。また、通常表示範囲DRANの画角より広い画角の表示範囲DRANを、拡大表示範囲DRANとも称する。
拡大表示範囲DRANの画角は、例えば、撮影範囲CRANの画角とほぼ同じ大きさである。なお、拡大表示範囲DRANの画角は、撮影範囲CRANの画角より小さくてもよい。例えば、撮影範囲CRANの画角が通常表示範囲DRANの画角の2倍以上の場合、拡大表示範囲DRANの画角は、通常表示範囲DRANの画角の2倍以下でもよい。
画像処理装置50Bは、例えば、保持部100、140、160、生成部110A、判定部120、調整部124、抽出部130および描画部150を有している。調整部124は、カメラ20Aの画角が画像IMGbに反映されている表示範囲DRANの画角より大きく、かつ、センサ30により検知されている障害物400が画像IMGbに存在しないと判定されたとき、表示範囲DRANの画角を広くする。
例えば、調整部124は、センサ30で検知されている障害物400が通常表示範囲DRAN内に存在しないことを示す判定結果INFbを判定部120から受けたとき、拡大表示範囲DRANの画角を示す情報INFeを生成部110Aに転送する。なお、調整部124は、例えば、センサ30で検知されている障害物400が通常表示範囲DRAN内に存在することを示す判定結果INFbを判定部120から受けたとき、通常表示範囲DRANの画角を示す情報INFeを生成部110Aに転送する。また、例えば、センサ30で障害物400が検知されていないとき、調整部124は、通常表示範囲DRANの画角を示す情報INFeを生成部110Aに転送する。
生成部110Aは、情報INFeが示す画角の画像IMGbを、保持部100に保持されている画像IMGaから生成する。例えば、情報INFeが通常表示範囲DRANの画角を示している場合、生成部110Aは、通常表示範囲DRANの画像IMGbを生成する。すなわち、情報INFeが通常表示範囲DRANの画角を示している場合、生成部110Aは、図1に示した生成部110と同様の動作を実行する。
また、例えば、情報INFeが拡大表示範囲DRANの画角を示している場合、生成部110Aは、拡大表示範囲DRANの画像IMGbを生成する。これにより、通常表示範囲DRANより広い拡大表示範囲DRANの像が映っている画像IMGbがモニタ40に表示される。なお、モニタ40に表示される画像IMGbの大きさは、通常表示範囲DRANの画像IMGbと拡大表示範囲DRANの画像IMGbとでほぼ同じである。したがって、生成部110Aは、例えば、拡大表示範囲DRANの画像IMGbを生成する際、画像IMGbの表示用の領域に合わせて、画像IMGbを縮小する。
図16は、表示範囲DRANを広げるときの一例を示している。図16の通常表示範囲DRANnは、センサ30で障害物400が検知されていないときにモニタ40に表示される画像IMGbの表示範囲DRANを示している。また、拡大表示範囲DRANwは、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しないときにモニタ40に表示される画像IMGbの表示範囲DRANを示している。
画像IMGb(n)は、センサ30で障害物400が検知されていないときにモニタ40に表示される画像IMGbを示している。画像IMGb(w)は、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しないときにモニタ40に表示される画像IMGbを示している。また、画像処理装置50Bは、障害物400の画像BIMGaを保持している場合、画像IMGb(w)の他に、障害物400の画像BIMGaを画像BIMGbとしてモニタ40に表示する。なお、画像処理装置50Bは、障害物400の画像BIMGaを保持していない場合、障害物400の画像BIMGaの代わりに、警告用の画像(例えば、図7に示した画像BIMGb)を画像BIMGbとしてモニタ40に表示する。
図16の例では、カメラ20Aの撮影範囲CRANは、通常表示範囲DRANnより広く、拡大表示範囲DRANと同じである。したがって、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しない場合、カメラ20で撮影された画像IMGaがモニタ40に表示される。
このように、画像処理装置50Bは、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しない場合、表示範囲DRANの画角を広げて、通常表示範囲DRANnより広い拡大表示範囲DRANwの画像IMGb(w)をモニタ40に表示する。例えば、画像処理装置50Bの調整部124は、センサ30で検知されている障害物400が通常表示範囲DRANn内に存在しないとき、モニタ40に表示する画像IMGbの表示範囲DRANを通常表示範囲DRANnより広くする。
ここで、画像IMGb(w)内の破線の枠は、通常表示範囲DRANnに対応する範囲を分かりやすくするために記載したものであり、モニタ40には表示されない。なお、画像処理装置50Bは、通常表示範囲DRANnに対応する範囲を示す枠(例えば、画像IMGb(w)内の破線の枠)を画像IMGb(w)に重畳してモニタ40に表示してもよい。
なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Bの構成および動作は、この例に限定されない。例えば、表示範囲DRANを拡大表示範囲DRANwに変更する条件は、センサ30で検知されている障害物400が通常表示範囲DRANn外で拡大表示範囲DRANw内のときでもよい。この場合、画像処理装置50Bは、障害物400が映っている画像IMGb(w)をモニタ40に表示できる。
あるいは、画像処理装置50Bは、センサ30により検知されている障害物400が画像IMGbに存在しないとき、画像IMGbに対する障害物400の相対的な位置を算出する算出部を有してもよい。この場合、例えば、調整部124は、画像IMGaに反映されている撮影範囲がモニタ40の画面以上であり、障害物400の相対的な位置が画面内であるとき、画像IMGbに反映される表示範囲の画角を画面に対応する画角まで広くしてもよい。
以上、図15および図16に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
さらに、この実施形態では、調整部124は、センサ30で検知されている障害物400が画像IMGbに存在しないとき、表示範囲DRANの画角を広くする。すなわち、この実施形態では、センサ30で検知されている障害物400が通常表示範囲DRANn内に存在しない場合、センサ30で障害物400が検知されていないときに比べて、車両300の周辺の広い範囲を映した画像IMGb(w)を運転者に提供できる。
図17は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図15に示した画像処理装置50Bに枠描画部112が追加された画像処理装置50Cを、画像処理装置50Bの代わりに有している。システム10および画像処理装置50Cのその他の構成は、図15に示したシステム10および画像処理装置50Bと同様である。図1から図16で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
画像処理装置50Cは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Cの動作を実行させてもよい。
画像処理装置50Cは、例えば、保持部100、140、160、生成部110A、枠描画部112、判定部120、抽出部130および描画部150を有している。枠描画部112は、画像IMGbを生成部110Aから受け、画像IMGb2を保持部160に保持する。例えば、枠描画部112は、画像IMGbの表示範囲DRANが通常表示範囲DRANnの場合、画像IMGbを画像IMGb2として保持部160に保持する。
また、例えば、画像IMGbの表示範囲DRANが拡大表示範囲DRANwの場合、枠描画部112は、通常表示範囲DRANnを示す枠を画像IMGbに重畳した画像IMGb2を保持部160に保持する。例えば、枠描画部112は、拡大表示範囲DRANwの画像IMGb上の通常表示範囲DRANnの位置を算出し、通常表示範囲DRANnを示す枠を画像IMGbに重畳する。これにより、通常表示範囲DRANnを示す枠が重畳された画像IMGb2が生成される。拡大表示範囲DRANwの画像IMGbに重畳される枠は、例えば、図15に示した画像IMGb(w)内の破線の枠である。なお、拡大表示範囲DRANwの画像IMGbに重畳される枠は、実線でもよい。
このように、枠描画部112は、表示範囲DRANの画角を広くする場合、表示範囲DRANの画角を広くする前の通常表示範囲DRANnを示す枠を表示範囲DRANの画角を広くした画像IMGb内に表示する。
以上、図17に示した実施形態においても、図15および図16に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。また、この実施形態では、センサ30で検知されている障害物400が通常表示範囲DRANn内に存在しない場合、センサ30で障害物400が検知されていないときに比べて、車両300の周辺の広い範囲を映した画像IMGb(w)を運転者に提供できる。
さらに、この実施形態では、枠描画部112は、表示範囲DRANの画角を広くする場合、表示範囲DRANの画角を広くする前の通常表示範囲DRANnを示す枠を表示範囲DRANの画角を広くした画像IMGb内に表示する。このため、この実施形態では、通常表示範囲DRANn外に障害物400が存在することを強調して運転者に伝えることができる。
図18は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示したカメラ20および画像処理装置50の代わりに、カメラ20Aおよび画像処理装置50Dを有している。この実施形態の画像処理装置50Dは、図1に示した判定部120および描画部150の代わりに、判定部120Aおよび描画部150Aを有している。システム10および画像処理装置50Dのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図17で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
画像処理装置50Dは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Dの動作を実行させてもよい。
カメラ20Aの撮影範囲CRANに対応する画角は、例えば、表示範囲DRANに対応する画角より大きい。したがって、カメラ20Aは、表示範囲DRANより広い撮影範囲CRANの像が映っている画像IMGaを、画像処理装置50Dに転送する。
画像処理装置50Dは、例えば、保持部100、140、160、生成部110、判定部120A、抽出部130および描画部150Aを有している。生成部110は、表示範囲DRANより広い撮影範囲CRANの画像IMGaから表示範囲DRANの画像IMGbを抽出する。
判定部120Aは、センサ30で検知された障害物400が表示範囲DRAN内に存在しないとき、障害物400がカメラ20Aの撮影範囲CRAN内に存在するか否かを判定する。すなわち、判定部120Aは、センサ30で検知された障害物400が画像IMGbに存在しないとき、障害物400が画像IMGaに存在するか否かを判定する。
なお、判定部120Aの動作は、画像IMGbに存在しない障害物400が画像IMGaに存在するか否かを判定することを除いて、図1に示した判定部120と同様である。例えば、判定部120Aは、センサ30で検知された障害物400が画像IMGbに存在するとき、障害物400が画像IMGbの端に存在するか否かを判定する。
判定部120Aの判定結果INFc、INFb2は、例えば、抽出部130および描画部150Aにそれぞれ転送される。例えば、判定部120Aは、障害物400が画像IMGbの端に存在するか否かの判定結果INFcを抽出部130に転送する。また、例えば、判定部120Aは、障害物400が画像IMGbに存在するか否かの判定結果INFb2を描画部150Aに転送する。なお、障害物400が画像IMGbに存在しないことを示す判定結果INFb2には、障害物400が画像IMGaに存在するか否かの判定結果も含まれる。
描画部150Aは、センサ30により検知されている障害物400が画像IMGbに存在せず、かつ、センサ30により検知されている障害物400が画像IMGaに存在するとき、画像IMGaから障害物400の画像を抽出する。そして、描画部150Aは、画像IMGaから抽出した障害物400の画像を、モニタ40に表示する障害物400の画像BIMGaとして使用する。
すなわち、描画部150Aは、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在するとき、画像IMGaから抽出した障害物400の画像を、画像BIMGbとして保持部160に保持する。
例えば、描画部150Aは、障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在することを示す判定結果INFb2を判定部120Aから受けたとき、保持部100に保持されている画像IMGaを読み出す。そして、描画部150Aは、センサ30で検知された障害物400の範囲に対応する画像を画像IMGaから抽出し、抽出した障害物400の画像を画像BIMGbとして保持部160に保持する。これにより、障害物400の新しい画像がモニタ40に表示される。
描画部150Aの動作は、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在するときの動作を除いて、図1に示した描画部150と同様である。
なお、システム10の構成および動作は、この例に限定されない。また、画像処理装置50Dの構成および動作は、この例に限定されない。例えば、描画部150Aは、障害物400の画像BIMGaが保持部140に保持されているときには、障害物400が画像IMGaに存在するか否かに拘わらず、保持部140に保持されている画像BIMGaを、画像BIMGbとして保持部160に保持してもよい。あるいは、描画部150Aは、画像IMGaから抽出した障害物400の画像を、画像BIMGaとして保持部140に保持してもよい。
図19は、モニタ40に表示される画像IMGcの一例を示している。図19の障害物400aは、センサ30が検知した障害物400bの前の状態(障害物400、表示範囲DRAN、検知範囲SRANの相対的な位置関係)を示している。障害物400bが検知される前の状態では、センサ30の検知範囲SRAN内に障害物400が存在していないため、画像IMGbおよび余白BSPを含む画像IMGc(a)がモニタ40に表示される。なお、表示範囲DRAN内に障害物400が存在しないため、画像IMGbには、障害物400は映っていない。
そして、例えば、障害物400aがセンサ30の検知範囲SRAN外から検知範囲SRAN内に表示範囲DRANを通過せずに移動した場合、センサ30は、検知範囲SRAN内の障害物400b(障害物400aの移動後の状態)を検知する。なお、センサ30で検知された障害物400bは、表示範囲DRAN外でカメラ20Aの撮影範囲CRAN内に存在する。
このため、描画部150Aは、画像IMGaから抽出した障害物400bの画像を画像BIMGbとしてモニタ40に表示する。すなわち、障害物400bが映っていない画像IMGbと障害物400bが映っている画像BIMGbとを含む画像IMGc(b)がモニタ40に表示される。このように、画像処理装置50Dは、表示範囲DRAN外に存在する障害物400bがカメラ20Aの撮影範囲CRAN内に存在するとき、障害物400の新しい画像BIMGbをモニタ40に表示できる。
なお、画像処理装置50Dは、障害物400bがカメラ20Aの撮影範囲CRAN内に存在するときには、障害物400bの過去の画像BIMGaが保持部140に保持されているか否かに拘わらず、障害物400bの新しい画像BIMGbをモニタ40に表示できる。
以上、図18および図19に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
さらに、この実施形態では、描画部150Aは、センサ30で検知されている障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在するとき、画像IMGaから抽出した障害物400の画像を、モニタ40に表示する。すなわち、この実施形態では、センサ30で検知されている障害物400が撮影範囲CRAN内に存在する限り、障害物400の新しい画像をモニタ40に表示できる。これにより、この実施形態では、障害物400の新しい画像を運転者に提供できる。また、この実施形態では、障害物400の過去の画像BIMGaが保持部140に保持されていない場合でも、センサ30で検知されている障害物400が撮影範囲CRAN内に存在するときには、障害物400の新しい画像をモニタ40に表示できる。
図20は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10では、図1に示したシステム10にサブカメラ22が追加されている。さらに、この実施形態のシステム10は、図1に示した画像処理装置50に保持部142が追加された画像処理装置50Eを、画像処理装置50の代わりに有している。また、画像処理装置50Eは、図1に示した判定部120および描画部150の代わりに、判定部120Bおよび描画部150Bを有している。システム10および画像処理装置50Eのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図19で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
画像処理装置50Eは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Eの動作を実行させてもよい。
システム10は、例えば、カメラ20、サブカメラ22、センサ30、モニタ40および画像処理装置50Eを有している。例えば、サブカメラ22は、カメラ20の撮影範囲CRAN外を撮影できるように、車両300の側面に配置される。サブカメラ22で撮影された画像SIMGaは、画像処理装置50Eに転送される。したがって、画像処理装置50Eは、カメラ20で撮影された画像IMGaとサブカメラ22で撮影された画像SIMGaとセンサ30の検知結果INFaとを受ける。そして、画像処理装置50Eは、画像IMGa、SIMGa、検知結果INFa等に基づいて生成した画像IMGcをモニタ40に表示する。
画像処理装置50Eは、例えば、保持部100、140、142、160、生成部110、判定部120B、抽出部130および描画部150Bを有している。保持部142は、サブカメラ22で撮影された画像SIMGaを順次保持する。
判定部120Bは、センサ30で検知された障害物400が表示範囲DRAN内に存在しないとき、障害物400がサブカメラ22の撮影範囲に存在するか否かを判定する。すなわち、判定部120Bは、センサ30で検知された障害物400が画像IMGbに存在しないとき、障害物400が画像SIMGaに存在するか否かを判定する。
なお、判定部120Bの動作は、画像IMGbに存在しない障害物400が画像SIMGaに存在するか否かを判定することを除いて、図1に示した判定部120と同様である。例えば、判定部120Bは、センサ30で検知された障害物400が画像IMGbに存在するとき、障害物400が画像IMGbの端に存在するか否かを判定する。
判定部120Bの判定結果INFc、INFb3は、例えば、抽出部130および描画部150Bにそれぞれ転送される。例えば、判定部120Bは、障害物400が画像IMGbの端に存在するか否かの判定結果INFcを抽出部130に転送する。また、例えば、判定部120Bは、障害物400が画像IMGbに存在するか否かの判定結果INFb3を描画部150Bに転送する。なお、障害物400が画像IMGbに存在しないことを示す判定結果INFb3には、障害物400が画像SIMGaに存在するか否かの判定結果も含まれる。
描画部150Bは、センサ30により検知されている障害物400が画像IMGbに存在せず、かつ、センサ30により検知されている障害物400が画像SIMGaに存在するとき、画像SIMGaから障害物400の画像を抽出する。そして、描画部150Bは、画像SIMGaから抽出した障害物400の画像を、モニタ40に表示する障害物400の画像BIMGaとして使用する。
すなわち、描画部150Bは、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在するとき、画像SIMGaから抽出した障害物400の画像を、画像BIMGbとして保持部160に保持する。
例えば、描画部150Bは、障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在することを示す判定結果INFb3を判定部120Bから受けたとき、保持部142に保持されている画像SIMGaを読み出す。そして、描画部150Bは、センサ30で検知された障害物400の範囲に対応する画像を画像SIMGaから抽出し、抽出した障害物400の画像を画像BIMGbとして保持部160に保持する。これにより、障害物400の新しい画像がモニタ40に表示される。
描画部150Bの動作は、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在するときの動作を除いて、図1に示した描画部150と同様である。
なお、システム10の構成および動作は、この例に限定されない。また、画像処理装置50Eの構成および動作は、この例に限定されない。例えば、描画部150Bは、障害物400の画像BIMGaが保持部140に保持されているときには、障害物400が画像SIMGaに存在するか否かに拘わらず、保持部140に保持されている画像BIMGaを、画像BIMGbとして保持部160に保持してもよい。あるいは、描画部150Bは、画像SIMGaから抽出した障害物400の画像を、画像BIMGaとして保持部140に保持してもよい。
図21は、カメラ20の撮影範囲CRANとサブカメラ22の撮影範囲CRAN2とセンサ30の検知範囲SRANの一例を示している。例えば、自動車の左右のサイドミラーの代わりに、2つのシステム10(カメラ20、サブカメラ22、センサ30、モニタ40および画像処理装置50E)が車両300に搭載されている。
2つのカメラ20は、車両300の右側面および左側面にそれぞれ配置されている。図21の例では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。すなわち、カメラ20で撮影された画像IMGaがモニタ40に表示される。2つのセンサ30は、車両300の右側面および左側面にそれぞれ配置されている。この実施形態では、センサ30の検知範囲SRANは、カメラ20の撮影範囲CRANより広い。したがって、センサ30は、カメラ20の撮影範囲CRANの外側に存在する物体(例えば、障害物)を検知できる。
2つのサブカメラ22は、車両300の右側面および左側面にそれぞれ配置されている。例えば、サブカメラ22は、カメラ20の撮影範囲CRAN外を撮影できるように、車両300の側面に配置される。すなわち、サブカメラ22の撮影範囲CRAN2は、カメラ20の撮影範囲CRANを補っている。これにより、画像処理装置50Eは、センサ30で検知された障害物400がカメラ20の撮影範囲CRAN内に存在しないときにも、障害物400がサブカメラ22の撮影範囲CRAN2内に存在する限り、障害物400の新しい画像をモニタ40に表示できる。
カメラ20、サブカメラ22およびセンサ30は、例えば、ECUに接続され、画像IMGa、SIMGaおよび検知結果INFaをECUにそれぞれ転送する。なお、ECUは、図20に示した画像処理装置50Eを有している。また、ECUは、モニタ40に接続され、画像IMGcをモニタ40に表示する。例えば、右側に配置されたモニタ40は、車両300の右側面のカメラ20、サブカメラ22およびセンサ30からのデータ(画像IMGa、SIMGa、検知結果INFa)に基づく画像IMGcを表示する。また、左側に配置されたモニタ40は、車両300の左側面のカメラ20、サブカメラ22およびセンサ30からのデータ(画像IMGa、SIMGa、検知結果INFa)に基づく画像IMGcを表示する。
以上、図20および図21に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
さらに、この実施形態では、システム10は、カメラ20の撮影範囲CRANを補うサブカメラ22を有している。サブカメラ22は、例えば、撮影した画像SIMGaを画像処理装置50Eに順次転送する。また、描画部150Bは、センサ30で検知されている障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在するとき、画像SIMGaから抽出した障害物400の画像を、モニタ40に表示する。
すなわち、この実施形態では、センサ30で検知されている障害物400がカメラ20の撮影範囲CRAN内に存在しないときにも、障害物400がサブカメラ22の撮影範囲CRAN2内に存在する限り、障害物400の新しい画像をモニタ40に表示できる。これにより、この実施形態では、障害物400の新しい画像を運転者に提供できる。また、この実施形態では、障害物400の過去の画像BIMGaが保持部140に保持されていない場合でも、センサ30で検知されている障害物400がサブカメラ22の撮影範囲CRAN2内に存在するときには、障害物400の新しい画像をモニタ40に表示できる。
図22は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示した画像処理装置50に算出部126が追加された画像処理装置50Fを、画像処理装置50の代わりに有している。また、画像処理装置50Fは、外挿部114を含む生成部110Bを、図1に示した生成部110の代わりに有している。システム10および画像処理装置50Fのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図21で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
画像処理装置50Fは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Fの動作を実行させてもよい。
画像処理装置50Fは、例えば、保持部100、140、160、生成部110B、判定部120、算出部126、抽出部130および描画部150を有している。判定部120は、例えば、障害物400が画像IMGbに存在するか否かの判定結果INFbを算出部126に転送する。なお、画像IMGbは、図1等で説明したように、画像IMGaから抽出される表示範囲DRANの画像IMGbである。カメラ20の撮影範囲CRANと表示範囲DRANとが一致する場合、表示範囲DRANの画像IMGbは、画像IMGaである。
算出部126は、例えば、障害物400が画像IMGbに存在しないことを示す判定結果INFbを受けたとき、モニタ40の画面上の画像BIMGb(障害物400の画像BIMGaや警告用の画像)の表示位置を算出する。そして、算出部126は、モニタ40の画面上の画像BIMGbの表示位置等を示す情報PINF1、PINF2を描画部150および生成部110Bにそれぞれ転送する。
情報PINF1は、例えば、画面上の画像BIMGbの表示位置を示す情報である。また、情報PINF2は、例えば、空白領域、あるいは、画像BIMGbの表示領域を示す情報である。ここで、空白領域は、例えば、画像BIMGbおよび画像IMGbのいずれも表示されない画面内の領域である。すなわち、空白領域は、表示範囲DRAN外に対応する画面上の領域から画像IMGbの表示領域を除いた領域である。
なお、障害物400が画像IMGbに存在する場合、例えば、算出部126は、障害物400が画像IMGbに存在することを示す情報PINF1、PINF2を描画部150および生成部110Bにそれぞれ転送する。
例えば、算出部126は、センサ30により検知されている障害物400が画像IMGbに存在しないとき、画像IMGbに対する障害物400の相対的な位置を算出する。なお、画像IMGbに対する障害物400の相対的な位置がモニタ40の画面外である場合、算出部126は、画像BIMGbの表示位置をモニタ40の画面内の位置に決定する。この場合、例えば、画像BIMGbの表示位置(モニタ40の画面上の位置)は、予め設定された固定位置でもよいし、画像IMGaに対する障害物400の相対的な位置に応じてモニタ40の画面内で調整される位置でもよい。
描画部150は、例えば、算出部126からの情報PINF1が示す表示位置に画像BIMGbが表示されるように、画像BIMGbを保持部160に保持する。すなわち、描画部150は、モニタ40の画面が画像IMGbより大きく、障害物400の相対的な位置が画面内であるとき、画面上の障害物400の相対的な位置に、障害物400の画像BIMGaを表示させる。
例えば、描画部150は、障害物400の画像BIMGaが保持部140に保持されているとき、情報PINF1が示す表示位置に画像BIMGaが表示されるように、画像BIMGaを画像BIMGbとして保持部160に保持する。また、例えば、描画部150は、障害物400の画像BIMGaが保持部140に保持されていないとき、情報PINF1が示す表示位置に警告用の画像が表示されるように、警告用の画像を画像BIMGbとして保持部160に保持する。
生成部110Bは、例えば、外挿部114を有している。生成部110Bの動作は、外挿部114に関する動作を除いて、図1に示した生成部110と同様である。したがって、生成部110Bの外挿部114以外の動作については、詳細な説明を省略する。
外挿部114は、モニタ40の画面が画像IMGbより大きく、障害物400の相対的な位置が画面内であるとき、画面のうち、画像IMGbおよび障害物400の画像BIMGaのいずれも表示されない空白領域の画像を、画像IMGbに基づいて生成する。例えば、外挿部114は、算出部126からの情報PINF2が示す空白領域に表示する画像を、画像IMGbを外挿して生成する。
なお、外挿部114は、情報PINF2が画像BIMGbの表示領域を示す情報である場合、情報PINF2が示す画像BIMGbの表示領域と、画像IMGbの表示領域とに基づいて、空白領域を算出してもよい。
生成部110Bにより生成された画像IMGb3は、保持部160に保持される。例えば、生成部110Bは、画像IMGbに対する障害物400の相対的な位置がモニタ40の画面内の場合、画像IMGbを外挿して空白領域を埋めた画像IMGb3を、保持部160に保持する。また、例えば、生成部110Bは、画像IMGbに対する障害物400の相対的な位置がモニタ40の画面外の場合、画像IMGbを画像IMGb3として保持部160に保持する。なお、センサ30で検知されている障害物400が画像IMGbに存在するときにも、生成部110Bは、画像IMGbを画像IMGb3として保持部160に保持する。
これにより、保持部160には、画像IMGb3を含む画像IMGc2が保持される。なお、保持部160に画像BIMGbが保持されている場合、画像IMGc2は、画像IMGb3および画像BIMGbを含む画像である。
図23は、表示範囲DRANの画像IMGbを外挿して空白領域EAREに画像を表示する処理の一例を示している。モニタ40(a)は、画像IMGb、BIMGbおよび空白領域EAREのモニタ40の画面上の位置関係を示している。なお、モニタ40の画面に表示される画像は、画像IMGb外の障害物400の相対的な位置が画面内である場合、モニタ40(b)に示すように、空白領域EAREが埋められた画像IMGc2である。モニタ40(b)は、画像IMGbを外挿して空白領域EAREを埋めた画像IMGb3と画像BIMGbとを含む画像IMGc2が表示されたモニタ40の画面を示している。
図23の符号PX(PXo、PXe)は、モニタ40の画面内の画素を示している。また、画素PXo(PXo1、PXo2、PXo3)は、画像IMGb内の画素PXを示し、画素PXe(PXe1−PXe7)は、空白領域EAREの画素PXを示している。図23では、着目する1つの画素PXeと消失点Pdとを結ぶ直線(画面の端まで延長した線)上の画素PXeでは、同じ画像が連続すると仮定した場合の処理を説明する。なお、消失点Pdは、例えば、車両走行時に画像が流れ込む中心の座標である。
先ず、外挿部114は、カメラ20の取り付け位置や向きに基づいて、画像が流れ込む中心の座標(消失点Pd)を算出する。例えば、外挿部114は、カメラ20の取り付け位置や向きを示す情報を判定部120から取得する。そして、外挿部114は、車両300が直進する場合のカメラ20の向きに対する移動方向等に基づいて、画像IMGaの消失点を算出する。そして、外挿部114は、画像IMGbの表示領域および表示位置等に基づいて、モニタ40の画面上での消失点Pdを画像IMGaの消失点から算出する。
次に、外挿部114は、例えば、空白領域EAREから1つの画素PXeを選択し、選択した画素PXe(例えば、画素PXe1)と消失点Pdとを結ぶ直線(図23の破線の矢印)を算出する。以下、画素PXe1が選択されたものとして説明する。
外挿部114は、画素PXe1と消失点Pdとを結ぶ直線と、画像IMGbの境界とが交わる箇所を算出する。そして、外挿部114は、直線と画像IMGbの境界とが交わる箇所の画素PXo1の色を取得する。また、外挿部114は、直線と画像IMGbの境界とが交わる箇所の画素PXo1から消失点Pdに向かって数個の画素PXo(例えば、画素PXo2、PXo3)の色を取得する。
そして、外挿部114は、取得した数個の画素PXo1−PXo3の色の平均を算出する。外挿部114は、画素PXo1−PXo3の色を平均した色を、画素PXe1の色として描画する。これにより、画素PXo1−PXo3の色を平均した色が、モニタ40の画素PXe1に表示される。なお、この実施形態では、ノイズ対策として、画素PXo1−PXo3の色を平均している。したがって、ノイズ対策を別に実行する場合等では、外挿部114は、数個の画素PXoの色の平均を使用せずに、画素PXo1の色を画素PXe1の色として描画してもよい。
画素PXe1に対して実行された処理は、空白領域EAREの全ての画素PXeが描画されるまで、空白領域EAREの各画素PXeに対して実行される。これにより、空白領域EAREが埋められた画像IMGc2がモニタ40に表示される。この結果、この実施形態では、空白領域EAREの画像が欠落することに対する運転者の違和感を緩和できる。
なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Fの構成および動作は、この例に限定されない。例えば、画像処理装置50Fは、生成部110Bの外部に外挿部114を有してもよい。また、外挿部114は、画像BIMGbが表示されない画面内の領域を外挿して埋めてもよい。この場合、描画部150は、例えば、画像IMGb3が保持部160に保持された後に、算出部126からの情報PINF1が示す表示位置に画像BIMGbを上書きする。
また、着目する1つの画素PXeと消失点Pdとを結ぶ直線上の画素PXeでは、同じ画像が連続すると仮定した場合、外挿部114は、直線上の1つの画素PXeの色を算出し、算出した色を直線上の残りの画素PXeの色としてもよい。
あるいは、画像処理装置50Fは、画像IMGbの境界を示す枠(例えば、画像IMGc2内の破線の枠)を画像IMGc2に重畳してモニタ40に表示してもよい。例えば、画像処理装置50Fは、図17に示した枠描画部112と同様のモジュールを有してもよい。
また、外挿部114は、カメラ20の撮影範囲CRANに対応する画角が表示範囲DRANに対応する画角より大きい場合、空白領域EAREと重なる部分の画像IMGaを、外挿の画像として使用してもよい。この場合、画像IMGaと重ならない空白領域EAREの部分の色が、画像IMGaあるいは画像IMGbを外挿することにより算出される。
以上、図22および図23に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
さらに、この実施形態では、外挿部114は、障害物400の相対的な位置がモニタ40の画面内であるとき、空白領域EAREの画像を画像IMGbに基づいて生成する。これにより、この実施形態では、空白領域EAREを埋めた画像IMGc2をモニタ40に表示できる。この結果、この実施形態では、空白領域EAREの画像が欠落することに対する運転者の違和感を緩和できる。
図24は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示した画像処理装置50の代わりに、画像処理装置50Gを有している。また、画像処理装置50Gは、図1に示した判定部120、抽出部130、保持部140および描画部150の代わりに、判定部120C、抽出部130A、保持部140Aおよび描画部150Cを有している。システム10および画像処理装置50Gのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図23で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
画像処理装置50Gは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Gの動作を実行させてもよい。
画像処理装置50Gは、例えば、保持部100、140A、160、生成部110、判定部120C、抽出部130Aおよび描画部150Cを有している。判定部120C、抽出部130A、保持部140Aおよび描画部150Cは、複数の障害物400に対して処理を実行できる。判定部120C、抽出部130A、保持部140Aおよび描画部150Cのその他の動作は、図1に示した判定部120、抽出部130、保持部140および描画部150と同様である。
例えば、判定部120Cは、センサ30により検知されている障害物400が複数の場合、複数の障害物400のそれぞれに対して、障害物400が画像IMGbに存在するか否かを判定する。そして、判定部120Cは、画像IMGbに存在する障害物400に対して、障害物400が画像IMGbの端に存在するか否かを判定する。
また、判定部120Cは、複数の障害物400のそれぞれに対して、追跡中の障害物400か否かを判定する。そして、判定部120Cは、新たな障害物400(追跡中の障害物400と異なる障害物400)と判定した障害物400に対しては、識別情報を付与する。このように、画像処理装置50Gは、識別情報を用いて、複数の障害物400を管理する。
抽出部130Aは、画像IMGbの端に存在すると判定されたそれぞれの障害物400の画像BIMGaを画像IMGaから抽出する。なお、各障害物400の画像BIMGaも各障害物400に付与された識別情報により管理される。保持部140Aは、抽出部130Aで抽出されたそれぞれの障害物400の画像BIMGaを保持する。すなわち、保持部140Aは、複数の画像BIMGaを保持できる。
描画部150Cは、例えば、画像IMGbに存在しないと判定された障害物400に対応する障害物400の画像BIMGaが保持部140Aに保持されているか否かを、障害物400に付与された識別情報に基づいて判定する。そして、描画部150Cは、画像IMGbに存在しないと判定された障害物400に対応し、かつ、保持部140Aに保持されている障害物400の画像BIMGaを、モニタ40に表示する画像IMGcに追加する。また、例えば、描画部150Cは、画像IMGbに存在しないと判定された障害物400の少なくとも1つが、画像BIMGaが保持部140Aに保持されていない障害物400である場合、モニタ40に表示する画像IMGcに警告用の画像を追加してもよい。
なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Gの構成および動作は、この例に限定されない。例えば、図14から図23で説明した画像処理装置50A、50B、50C、50D、50E、50Fに、複数の障害物400を管理する機能を追加してもよい。
以上、図24に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
さらに、この実施形態では、センサ30により検知されている障害物400が複数の場合でも、判定部120C、抽出部130A、保持部140Aおよび描画部150Cは、複数の障害物400に対して処理を実行できる。これにより、この実施形態では、センサ30で複数の障害物400が検知された場合でも、表示範囲DRAN外の複数の障害物400に対応する画像BIMGbをモニタ40に表示できる。これにより、この実施形態では、複数の障害物400が車両300の周辺に存在することを運転者に伝えることができる。
図25は、画像処理装置のハードウエア構成の一例を示している。なお、図1から図24で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
コンピュータ装置CPは、プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFと、光学ドライブ装置ODRとを有している。プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFと、光学ドライブ装置ODRとは、バスを介して互いに接続されている。
プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFとは、例えば、画像処理装置50、50A、50B、50C、50D、50E、50F、50Gのいずれかの機能を実現する。例えば、プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFとは、ECU内に配置されている。
光学ドライブ装置ODRは、光ディスク等のリムーバブルディスクDISを装着可能であり、装着したリムーバブルディスクDISに記録された情報の読み出しおよび記録を行う。
コンピュータ装置CPは、入出力インタフェースIFを介してカメラ20およびセンサ30に接続されている。これにより、プロセッサPUは、入出力インタフェースIFを介して、カメラ20で撮影された画像IMGaやセンサ30の検知結果INFaを受け取ることができる。なお、プロセッサPU等が画像処理装置50Eの機能を実現する場合、図20に示したサブカメラ22も入出力インタフェースIFを介してコンピュータ装置CPに接続される。
メモリMEMは、例えば、コンピュータ装置CPのオペレーティングシステムを格納している。また、メモリMEMは、例えば、例えば、画像処理装置50、50A、50B、50C、50D、50E、50F、50Gのいずれかの動作をプロセッサPUが実行するための表示プログラム等のアプリケーションプログラムを格納している。
表示プログラム等のアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスクDISに記録して頒布することができる。例えば、コンピュータ装置CPは、表示プログラム等のアプリケーションプログラムを、リムーバブルディスクDISから光学ドライブ装置ODRを介して読み出し、メモリMEMやハードディスク装置HDDに格納してもよい。また、コンピュータ装置CPは、表示プログラム等のアプリケーションプログラムを、インターネット等のネットワークに接続する通信装置(図示せず)を介してダウンロードし、メモリMEMやハードディスク装置HDDに格納してもよい。
画像処理装置のハードウエア構成は、この例に限定されない。例えば、コンピュータ装置CPは、光学ドライブ装置ODRが省かれてもよい。
以上の実施形態において説明した発明を整理して、付記として開示する。
(付記1)
カメラと物体を検知するセンサとからのデータを用いて、画像をモニタに表示する画像処理装置であって、
前記カメラで撮影された第1画像を保持する第1保持部と、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
を備えていることを特徴とする画像処理装置。
(付記2)
付記1に記載の画像処理装置において、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する第2判定部を備えていることを特徴とする画像処理装置。
(付記3)
付記1または付記2に記載の画像処理装置において、
前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする調整部を備えていることを特徴とする画像処理装置。
(付記4)
付記3に記載の画像処理装置において、
前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する第2生成部を備えていることを特徴とする画像処理装置。
(付記5)
付記1または付記2に記載の画像処理装置において、
前記第1画像に反映されている撮影範囲は、前記第2画像に反映されている表示範囲より大きく、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とする画像処理装置。
(付記6)
付記1または付記2に記載の画像処理装置において、
前記カメラとは別のカメラである第2カメラで撮影された第3画像を保持する第3保持部を備え、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とする画像処理装置。
(付記7)
付記1または付記2に記載の画像処理装置において、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成する外挿部とを備え、
前記描画部は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
ことを特徴とする画像処理装置。
(付記8)
付記7に記載の画像処理装置において、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する第2生成部を備えていることを特徴とする画像処理装置。
(付記9)
付記1ないし付記8のいずれか1項に記載の画像処理装置において、
前記判定部は、前記センサにより検知されている前記障害物が複数の場合、前記複数の障害物のそれぞれに対して、前記障害物が前記第2画像に存在するか否かを判定し、前記第2画像に存在する前記障害物に対して、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記抽出部は、前記第2画像の端に存在すると判定されたそれぞれの前記障害物の画像を前記第1画像から抽出し、
前記第2保持部は、前記抽出部で抽出されたそれぞれの前記障害物の画像を保持し、
前記描画部は、前記第2画像に存在しないと判定された前記障害物に対応し、かつ、前記第2保持部に保持されている前記障害物の画像を、前記モニタに表示する画像に追加する
ことを特徴とする画像処理装置。
(付記10)
付記1または付記2に記載の画像処理装置において、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記第1画像に反映されている撮影範囲が前記モニタの画面以上であり、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像に反映される表示範囲の画角を前記画面に対応する画角まで広くする調整部と
を備えていることを特徴とする画像処理装置。
(付記11)
カメラ、センサ、画像処理装置およびモニタを備え、
前記画像処理装置は、
前記カメラで撮影された第1画像を保持する第1保持部と、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
を備えていることを特徴とするシステム。
(付記12)
付記11に記載のシステムにおいて、
前記画像処理装置は、前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する第2判定部を備えていることを特徴とするシステム。
(付記13)
付記11または付記12に記載のシステムにおいて、
前記画像処理装置は、前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする調整部を備えていることを特徴とするシステム。
(付記14)
付記13に記載のシステムにおいて、
前記画像処理装置は、前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する第2生成部を備えていることを特徴とするシステム。
(付記15)
付記11または付記12に記載のシステムにおいて、
前記第1画像に反映されている撮影範囲は、前記第2画像に反映されている表示範囲より大きく、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とするシステム。
(付記16)
付記11または付記12に記載のシステムにおいて、
前記カメラとは別のカメラである第2カメラを備え、
前記画像処理装置は、前記第2カメラで撮影された第3画像を保持する第3保持部を備え、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とするシステム。
(付記17)
付記11または付記12に記載のシステムにおいて、
前記画像処理装置は、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成する外挿部とを備え、
前記描画部は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
ことを特徴とするシステム。
(付記18)
付記17に記載のシステムにおいて、
前記画像処理装置は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する第2生成部を備えていることを特徴とするシステム。
(付記19)
付記11ないし付記18のいずれか1項に記載のシステムにおいて、
前記判定部は、前記センサにより検知されている前記障害物が複数の場合、前記複数の障害物のそれぞれに対して、前記障害物が前記第2画像に存在するか否かを判定し、前記第2画像に存在する前記障害物に対して、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記抽出部は、前記第2画像の端に存在すると判定されたそれぞれの前記障害物の画像を前記第1画像から抽出し、
前記第2保持部は、前記抽出部で抽出されたそれぞれの前記障害物の画像を保持し、
前記描画部は、前記第2画像に存在しないと判定された前記障害物に対応し、かつ、前記第2保持部に保持されている前記障害物の画像を、前記モニタに表示する画像に追加する
ことを特徴とするシステム。
(付記20)
付記11または付記12に記載のシステムにおいて、
前記画像処理装置は、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記第1画像に反映されている撮影範囲が前記モニタの画面以上であり、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像に反映される表示範囲の画角を前記画面に対応する画角まで広くする調整部と
を備えていることを特徴とするシステム。
(付記21)
カメラと物体を検知するセンサとからのデータを用いて画像をモニタに表示する処理をコンピュータに実行させる表示プログラムであって、
前記カメラで撮影された第1画像を保持し、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成し、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出し、
前記抽出部で抽出された前記障害物の画像を保持し、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する
処理をコンピュータに実行させることを特徴とする表示プログラム。
(付記22)
付記21に記載の表示プログラムにおいて、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する処理をコンピュータに実行させる表示プログラム。
(付記23)
付記21または付記22に記載の表示プログラムにおいて、
前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする処理をコンピュータに実行させる表示プログラム。
(付記24)
付記23に記載の表示プログラムにおいて、
前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する処理をコンピュータに実行させる表示プログラム。
(付記25)
付記21または付記22に記載の表示プログラムにおいて、
前記第1画像に反映されている撮影範囲が、前記第2画像に反映されている表示範囲より大きい場合、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する処理をコンピュータに実行させる表示プログラム。
(付記26)
付記21または付記22に記載の表示プログラムにおいて、
前記カメラとは別のカメラである第2カメラで撮影された第3画像を保持し、
前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
処理をコンピュータに実行させる表示プログラム。
(付記27)
付記21または付記22に記載の表示プログラムにおいて、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出し、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成し、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
処理をコンピュータに実行させる表示プログラム。
(付記28)
付記27に記載の表示プログラムにおいて、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する処理をコンピュータに実行させる表示プログラム。
(付記29)
付記21ないし付記28のいずれか1項に記載の表示プログラムにおいて、
前記センサにより検知されている前記障害物が複数の場合、前記複数の障害物のそれぞれに対して、前記障害物が前記第2画像に存在するか否かを判定し、前記第2画像に存在する前記障害物に対して、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記第2画像の端に存在すると判定されたそれぞれの前記障害物の画像を前記第1画像から抽出し、
前記抽出部で抽出されたそれぞれの前記障害物の画像を保持し、
前記第2画像に存在しないと判定された前記障害物に対応し、かつ、前記第2保持部に保持されている前記障害物の画像を、前記モニタに表示する画像に追加する
処理をコンピュータに実行させる表示プログラム。
(付記30)
付記21または付記22に記載の表示プログラムにおいて、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出し、
前記第1画像に反映されている撮影範囲が前記モニタの画面以上であり、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像に反映される表示範囲の画角を前記画面に対応する画角まで広くする
処理をコンピュータに実行させる表示プログラム。
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。
10‥システム;20、20A‥カメラ;22‥サブカメラ;30‥センサ;40‥モニタ;50、50A、50B、50C、50D、50E、50F、50G‥画像処理装置;100、140、140A、142、160‥保持部;110、110A、110B‥生成部;112‥枠描画部;114‥外挿部;120、120A、120B‥判定部;122‥描画判定部;124‥調整部;126‥算出部;130、130A‥抽出部;150、150A、150B‥描画部;CP‥コンピュータ装置;DIS‥リムーバブルディスク;HDD‥ハードディスク装置;IF‥入出力インタフェース;MEM‥メモリ;ODR‥光学ドライブ装置;PU‥プロセッサ

Claims (10)

  1. カメラと物体を検知するセンサとからのデータを用いて、画像をモニタに表示する画像処理装置であって、
    前記カメラで撮影された第1画像を保持する第1保持部と、
    前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
    前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
    前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
    前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
    前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
    を備えていることを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する第2判定部を備えていることを特徴とする画像処理装置。
  3. 請求項1または請求項2に記載の画像処理装置において、
    前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする調整部を備えていることを特徴とする画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する第2生成部を備えていることを特徴とする画像処理装置。
  5. 請求項1または請求項2に記載の画像処理装置において、
    前記第1画像に反映されている撮影範囲は、前記第2画像に反映されている表示範囲より大きく、
    前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
    ことを特徴とする画像処理装置。
  6. 請求項1または請求項2に記載の画像処理装置において、
    前記カメラとは別のカメラである第2カメラで撮影された第3画像を保持する第3保持部を備え、
    前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
    ことを特徴とする画像処理装置。
  7. 請求項1または請求項2に記載の画像処理装置において、
    前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
    前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成する外挿部とを備え、
    前記描画部は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
    ことを特徴とする画像処理装置。
  8. 請求項7に記載の画像処理装置において、
    前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する第2生成部を備えていることを特徴とする画像処理装置。
  9. カメラ、センサ、画像処理装置およびモニタを備え、
    前記画像処理装置は、
    前記カメラで撮影された第1画像を保持する第1保持部と、
    前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
    前記センサの検知結果を受け、前記センサにより検知された物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
    前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
    前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
    前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
    を備えていることを特徴とするシステム。
  10. カメラと物体を検知するセンサとからのデータを用いて画像をモニタに表示する処理をコンピュータに実行させる表示プログラムであって、
    前記カメラで撮影された第1画像を保持し、
    持されている前記第1画像から前記モニタに表示する第2画像を生成し、
    前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定し、
    前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出し、
    出された前記障害物の画像を保持し、
    前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する
    処理をコンピュータに実行させることを特徴とする表示プログラム。
JP2013190600A 2013-09-13 2013-09-13 画像処理装置、システムおよび表示プログラム Expired - Fee Related JP6194713B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013190600A JP6194713B2 (ja) 2013-09-13 2013-09-13 画像処理装置、システムおよび表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013190600A JP6194713B2 (ja) 2013-09-13 2013-09-13 画像処理装置、システムおよび表示プログラム

Publications (2)

Publication Number Publication Date
JP2015056851A JP2015056851A (ja) 2015-03-23
JP6194713B2 true JP6194713B2 (ja) 2017-09-13

Family

ID=52820899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013190600A Expired - Fee Related JP6194713B2 (ja) 2013-09-13 2013-09-13 画像処理装置、システムおよび表示プログラム

Country Status (1)

Country Link
JP (1) JP6194713B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6256509B2 (ja) * 2016-03-30 2018-01-10 マツダ株式会社 電子ミラー制御装置
JP7055555B2 (ja) * 2018-02-01 2022-04-18 アルパイン株式会社 周辺監視システム
JP7298277B2 (ja) * 2019-04-25 2023-06-27 トヨタ自動車株式会社 イベントカメラ

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5099451B2 (ja) * 2008-12-01 2012-12-19 アイシン精機株式会社 車両周辺確認装置
JP5691339B2 (ja) * 2010-09-21 2015-04-01 アイシン精機株式会社 運転支援装置
JP5495071B2 (ja) * 2011-06-16 2014-05-21 アイシン精機株式会社 車両周辺監視装置

Also Published As

Publication number Publication date
JP2015056851A (ja) 2015-03-23

Similar Documents

Publication Publication Date Title
EP3160138B1 (en) Image synthesis system, image synthesis device therefor, and image synthesis method
JP5222597B2 (ja) 画像処理装置及び方法、運転支援システム、車両
US7728879B2 (en) Image processor and visual field support device
EP2884460B1 (en) Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
EP2482557B1 (en) Driving support display device
US8169309B2 (en) Image processing apparatus, driving support system, and image processing method
JPWO2010137265A1 (ja) 車両周囲監視装置
US9902341B2 (en) Image processing apparatus and image processing method including area setting and perspective conversion
JP6194713B2 (ja) 画像処理装置、システムおよび表示プログラム
US20230283898A1 (en) Image processing device, image processing method and non-transitory computer-readable recording medium
WO2016092967A1 (ja) 画像生成装置及び画像生成方法
KR101705558B1 (ko) Avm 시스템의 공차 보정 장치 및 방법
CN112351242A (zh) 图像处理装置以及图像处理方法
US20230232103A1 (en) Image processing device, image display system, method, and program
JP6293089B2 (ja) 後方モニタ
US11827148B2 (en) Display control device, display control method, moving body, and storage medium
JP6032141B2 (ja) 走行路面標示検知装置および走行路面標示検知方法
EP3866110A1 (en) Target detection method, target detection apparatus and unmanned aerial vehicle
WO2022160232A1 (zh) 一种检测方法、装置和车辆
JP6999239B2 (ja) 画像処理装置および画像処理方法
JP5833887B2 (ja) 自車移動推定方法および自車移動推定プログラム
KR20110082873A (ko) 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
JP6187322B2 (ja) 画像表示装置、画像表示システム
US20230217108A1 (en) Image processing device, image processing method and non-transitory computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170731

R150 Certificate of patent or registration of utility model

Ref document number: 6194713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees