JP6439436B2 - 映像処理装置、及び車載映像処理システム - Google Patents

映像処理装置、及び車載映像処理システム Download PDF

Info

Publication number
JP6439436B2
JP6439436B2 JP2014257786A JP2014257786A JP6439436B2 JP 6439436 B2 JP6439436 B2 JP 6439436B2 JP 2014257786 A JP2014257786 A JP 2014257786A JP 2014257786 A JP2014257786 A JP 2014257786A JP 6439436 B2 JP6439436 B2 JP 6439436B2
Authority
JP
Japan
Prior art keywords
video
vehicle
obstacle
output
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014257786A
Other languages
English (en)
Other versions
JP2016119558A (ja
Inventor
川島 毅
毅 川島
勝之 福田
勝之 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014257786A priority Critical patent/JP6439436B2/ja
Publication of JP2016119558A publication Critical patent/JP2016119558A/ja
Application granted granted Critical
Publication of JP6439436B2 publication Critical patent/JP6439436B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、映像処理装置、及び車載映像処理システムに関する。
車両の後側方をカメラで撮影して、その映像を車両内部の表示部に表示する車両用周辺監視装置が知られている(例えば、特許文献1参照。)。
特許第3876761号公報
ところで、車両が後退する際には、上述のような装置の表示部に表示される映像の視点位置、視線方向、あるいは視野範囲など(以下、これらを総称して視点位置等という。)を、車両の前進時とは異なる視点位置等に変更したい場合がある。
一例を挙げれば、例えば、車両を後退させつつ駐車枠に収めたい場合や、車両を後退させつつ路肩に寄せて停車させたい場合には、駐車枠や路肩と車両の後輪付近との位置関係を確認しやすいような視点位置等で映像を表示したいことがある。別の例としては、例えば、車両の前進時には、より広範囲の確認ができるような表示を行っていても、車両の後退時には、車両後方のより狭い範囲が拡大表示されるような視点位置等で映像を表示したいことがある。これらのような視点位置等の変更は、カメラ映像の切り出し範囲を適切に設定し、必要があれば、適切な歪み補正等を施すことにより実現することができる。
しかし、車両の後方に障害物が存在する場合に、上述のような視点位置等の変更を行うと、障害物の存在する箇所が表示対象外になってしまうことがある。また、障害物とは別の箇所に着目して歪みを除去する補正を行った場合には、障害物がある箇所の歪みが増大することもあり、この場合、歪んだ障害物が表示されても、障害物を適切に視認できなくなる可能性がある。
以上のような事情から、車両の後側方の映像を表示する際に、その映像の視点位置等を変更可能で、車両の後方に障害物が存在する場合には、その障害物を適切に表示可能な映像処理装置、及び車載映像処理システムを提供することが望ましい。
以下に説明する映像処理装置は、障害物判定部と、映像入力部と、映像処理部と、映像出力部とを備える。障害物判定部は、車両の後方に存在する障害物を検知可能な障害物検知部から、障害物に関する情報を取得して、障害物の有無を判定する。映像入力部は、車両の後側方を撮影可能に構成されたカメラから、当該カメラで撮影されたカメラ映像を入力する。
映像処理部は、映像入力部によって入力されたカメラ映像に基づいて第一の出力用映像及び第二の出力用映像を生成可能に構成される。障害物判定部によって障害物があると判定された場合、映像処理部は、第一の出力用映像を生成する。障害物判定部によって障害物がないと判定された場合、映像処理部は、第二の出力用映像を生成する。
これら第一の出力用映像及び第二の出力用映像のうちの少なくとも一方を生成する際、映像処理部は、視点位置、視線方向、及び視野範囲のうちの少なくとも一つを変更対象として、カメラ映像に対して変更対象を変更する映像変換処理を施す。これにより、上記変更対象(すなわち、視点位置、視線方向、及び視野範囲のうちの少なくとも一つ)が互いに異なる第一の出力用映像及び第二の出力用映像が生成される。
このような映像処理部において、映像変換処理としては、第一の出力用映像に第二の出力用映像よりも障害物が大きく表示されることになる映像変換処理、又は第二の出力用映像には表示されない障害物の一部又は全部が第一の出力用映像に表示されることになる映像変換処理が実行される。
映像出力部は、映像処理部によって生成される第一の出力用映像又は第二の出力用映像を、車室内に配設された表示装置へと出力する。
このように構成された映像処理装置によれば、車両の後方に障害物がある場合には、第一の出力用映像を、表示装置の画面上に表示することができる。第一の出力用映像には、第二の出力用映像よりも障害物が大きく表示されるか、第二の出力用映像には表示されない障害物の一部又は全部が表示される。そのため、車両の運転者は、車両の後方にある障害物を容易に認識することができ、障害物を考慮した適切な運転操作を実施することができる。
また、車両の後方に障害物がない場合には、第二の出力用映像を、表示装置の画面上に表示することができる。第二の出力用映像には、第一の出力用映像よりも広範囲(すなわち、仮に障害物があったとすれば、その障害物は第一の出力用映像よりも小さく表示されることになるような範囲。)が表示されるか、第一の出力用映像とは別の範囲(すなわち、第一の出力用映像には表示される障害物の一部又は全部が表示されなくなるような範囲。)が表示される。そのため、車両後方に障害物がなければ、車両の周辺をより広範囲にわたって表示することや、車両の後方の一部が見えなくなるような方向(例えば、車両の後輪付近を注視する方向。)を表示することが可能となる。よって、車両の後方以外にある対象物を認識しやすい映像を表示することができる。
なお、上述のような映像変換処理は、第一の出力用映像及び第二の出力用映像のうちの少なくとも一方を生成する際に実行すればよい。すなわち、第一の出力用映像及び第二の出力用映像のうちの一方を生成する際に映像変換処理を実行してもよいし、両方のそれぞれを生成する際に映像変換処理を実行してもよい。
一方を生成する際に映像変換処理が実行され、他方を生成する際に映像変換処理が実行されない場合、一方は上記変更対象がカメラ映像とは一致しない映像になり、他方は上記変更対象がカメラ映像と一致する映像になる。そのため、この場合は、上記変更対象が互いに異なる第一の出力用映像及び第二の出力用映像が生成されることになる。
また、両方のそれぞれを生成する際に映像変換処理が実行される場合は、両方とも上記変更対象がカメラ映像とは一致しない映像になる。ただし、この場合も、上記変更対象が変更される程度を互いに異ならせることにより、上記変更対象が互いに異なる第一の出力用映像及び第二の出力用映像が生成されることになる。
また、以下に説明する車載映像処理システムは、障害物検知部と、カメラと、映像処理装置と表示装置とを備える。映像処理装置は、上述した通りの構成(すなわち、上述した障害物判定部、映像入力部、映像処理部、及び映像出力部。)を備える。したがって、上述の映像処理装置について述べた通りの作用、効果を奏する。
図1は車載映像処理システムの構成を示すブロック図である。 図2は第一実施形態における映像処理を示すフローチャートである。 図3は第一実施形態で例示した車両、障害物、及びカメラによる撮影範囲の位置関係を示す説明図である。 図4は第一実施形態におけるカメラ映像及び第一の出力用映像を例示した説明図である。 図5は第一実施形態における第二の出力用映像を例示した説明図である。 図6は第二実施形態における映像処理を示すフローチャートである。 図7は第二実施形態における第一の出力用映像を例示した説明図である。 図8は第三実施形態における映像処理を示すフローチャートである。 図9は第三実施形態における第一の出力用映像を例示した説明図である。 図10はドアミラーに映る鏡像を例示した説明図である。 図11は第四実施形態における第一の出力用映像を例示した説明図である。 図12は第五実施形態における映像処理を示すフローチャートである。 図13は第五実施形態における第一の出力用映像を例示した説明図である。
次に、上述の映像処理装置、及び車載映像処理システムについて、例示的な実施形態を挙げて説明する。
(1)第一実施形態
[映像処理装置の構成]
以下に説明する車載映像処理システムは、図1に示すように、上述の映像処理装置として機能する電子制御装置1(Electronic Control Unit;以下、ECU1と略称する。)を中心に構成される。ECU1の他には、左カメラ3、右カメラ4、左モニタ5、右モニタ6、障害物検知部7、及びシフト位置検知部8などを備える。
左カメラ3は、車両の左側にあるドアミラーの取り付け位置相当の箇所に取り付けられ、車両左側の後側方を撮影可能に構成されている。右カメラ4は、車両の右側にあるドアミラーの取り付け位置相当の箇所に取り付けられ、車両右側の後側方を撮影可能に構成されている。左カメラ3及び右カメラ4は、双方とも一般的なドアミラーを通して見える範囲よりも広い範囲を撮影可能に構成されている。
左モニタ5及び右モニタ6は、例えば液晶ディスプレイ装置などによって構成され、それぞれが車室内に配設されている。本実施形態の場合、左モニタ5は、運転席から見て左斜め前方となる位置に設置され、主に左カメラ3で撮影された映像が左モニタ5に表示される。右モニタ6は、運転席から見て右斜め前方となる位置に設置され、主に右カメラ4で撮影された映像が右モニタ6に表示される。
ただし、左モニタ5及び右モニタ6の配設位置は、上述の配設位置には限定されない、また、左モニタ5及び右モニタ6は、上述のように、それぞれに対応する表示装置で構成されていてもよいが、単一の表示装置で構成されていてもよい。例えば、単一のセンターディスプレイを、ダッシュボードの中央付近(例えば、センターコンソール等、運転席と助手席との間となる位置に対向する箇所。)に配設し、左モニタ5及び右モニタ6に相当する表示領域を、センターディスプレイの画面上に設けてもよい。
障害物検知部7は、車両の後方にある障害物の存在を検知可能で、検知した障害物までの距離を測定可能に構成されている。本実施形態の場合、障害物検知部7は、超音波方式
の測距センサ(以下、超音波ソナーともいう。)によって構成され、複数の超音波ソナーが車両の後方に配設されている。これら複数の超音波ソナーから車両の後方に向けて超音波を送波し、障害物によって反射された反射波を受波することにより、障害物の存在を検知し、検知した障害物までの距離を測定することができる。障害物検知部7によって得られる障害物情報は、上述のECU1へと伝送される。なお、障害物検知部7は、超音波方式以外の測距センサ(例えば、赤外線方式の測距センサ等。)によって構成されていてもよい。
シフト位置検知部8は、トランスミッション(図示略)のシフト位置を検出するセンサによって構成される。シフト位置検知部8によって得られるシフト位置情報は、上述のECU1へと伝送される。
ECU1は、映像入力部11、映像処理部12、映像出力部13、記憶部14、障害物判定部15、及びシフト位置判定部16などを備える。映像入力部11は、左カメラ3及び右カメラ4のそれぞれによって撮影されたカメラ映像を入力する。映像処理部12は、映像入力部11によって入力されたカメラ映像(左カメラ3で撮影されたカメラ映像、及び右カメラ4で撮影されたカメラ映像。)それぞれに対して映像処理を施して出力用映像を生成する。なお、映像処理部12において実行される映像処理の詳細については後述する。
映像出力部13は、映像処理部12によって生成された出力用映像のうち、左カメラ3で撮影されたカメラ映像に基づいて生成された出力用映像を左モニタ5へと出力し、右カメラ4で撮影されたカメラ映像に基づいて生成された出力用映像を右モニタ6へと出力する。これにより、運転者は、車両の後退時、あるいは車線変更等を実施する際に、左モニタ5及び右モニタ6に映し出される映像を見て、車両の後側方の状況を把握することができる。
記憶部14には、映像処理部12において映像処理を実行する際に必要となる各種データが記憶されている。障害物判定部15は、障害物検知部7から得られた障害物情報に基づいて、車両後方における障害物の有無を判定する。シフト位置判定部16は、シフト位置検知部8から得られたシフト位置情報に基づいて、トランスミッションのシフト位置を判定する。
なお、本実施形態の場合、車両にはドアミラーそのもの(すなわち、鏡に映る鏡像によって車両の後側方を確認可能に構成されたもの。)は取り付けられていない。その代わりに、ドアミラーの取り付け位置相当の箇所には、上述の左カメラ3及び右カメラ4が取り付けられている。運転者は、ドアミラーを見る代わりに、左モニタ5及び右モニタ6を見ることにより、車両の後側方の状況を確認することができる。
ただし、本実施形態において説明する車載映像処理システムは、ドアミラーが取り付けられている車両において、ドアミラーと併用される構成として採用されてもかまわない。例えば、車両の左右両側それぞれにドアミラーが取り付けられ、それらのドアミラーに対して左カメラ3及び右カメラ4が取り付けられていてもよい。この場合、左モニタ5及び右モニタ6は、ドアミラーと併用して車両の後側方を確認するために利用することができる。
[ECUにおいて実行される処理の詳細]
次に、ECU1において実行される処理について、図2に示すフローチャートに基づいて説明する。以下に説明する処理は、車両の作動開始に伴って実行され、以降は車両の作動停止まで繰り返し実行される処理である。
この処理を開始すると、ECU1は、左カメラ3及び右カメラ4のそれぞれによって撮影されたカメラ映像を取得する(S10)。本実施形態の場合、左カメラ3及び右カメラ4としては、撮影対象の左右を反転させて鏡像として映像を出力するカメラを採用している。そのため、S10では、特に追加の映像処理を施さなくても鏡像化済みのカメラ映像を取得することができる。ただし、左カメラ3及び右カメラ4としては、撮影対象の左右を反転させることなく正像として映像を出力するカメラを採用することもできる。この場合は、ECU1が、S10又はその後の処理ステップにおいて、正像として取得した映像の左右を反転させて鏡像に変換する映像処理を施せばよい。
こうして得られるカメラ映像は、例えば右カメラ4によって撮影される映像を例に挙げると、図3に例示するような状況下では、図4に例示するような映像となる。図3において、車両20は、駐車枠22(舗装面上に描かれた白線。)の内側において、車両20の右側にある白線に寄せた状態で停車している。また、車両20の後方において、車両20の近くにはパイロン(ロードコーン)24が置かれており、パイロン24よりも遠方には別の車両26が停車している。
左カメラ3及び右カメラ4は、例えば、パイロン24の中央付近を見下ろすような角度での撮影方向に関し、図3中に二点鎖線で例示するような撮影範囲A1,A2を撮影可能となっている。ただし、撮影範囲B1,B2については、車両20の車体が映り込む。そのため、例えば、撮影範囲B2内にあるパイロン24は、その一部が、図4に示すように、カメラ映像に映り込んでいる車両20の背後となる位置に隠れることになる。同様に、別の車両26についても、その一部がカメラ映像に映り込んでいる車両20の背後となる位置に隠れることになる。なお、左カメラ3は撮影対象が車体左側の後側方となる点で右カメラ4とは相違するが、図2に示す処理を理解する上で重要な事項ではないので、左カメラ3によって撮影される映像についての図示は省略する。
さて、S10において上述のようなカメラ映像を取得したら、ECU1は、シフト位置検知部8からシフト位置情報を取得して、シフト位置がリバース(後退)か否かを判定する(S20)。S20において、シフト位置がリバースである場合は(S20:YES)、S30へと進む。また、S20において、シフト位置がリバースではない場合は(S20:YES)、S30−S50を実行することなく、S60へと進む。
S30へ進んだ場合、ECU1は、障害物検知部7から障害物情報を取得する(S30)。そして、ECU1は、車両後方に障害物があるか否かを判定する(S40)。S40において、車両後方に障害物がない場合は(S40:NO)、S50へと進む。また、S40において、車両後方に障害物がある場合は(S40:NO)、S50を実行することなく、S60へと進む。
S50へ進んだ場合、ECU1は、左カメラ3及び右カメラ4それぞれによって撮影されたカメラ映像に対し、車両後退時用の視点変換を施す(S50)。本実施形態の場合、S50において、図4に例示したような視点位置等とされたカメラ映像に対し、視点変換を施すことにより、図5に例示するような出力用映像(本明細書でいう第二の出力用映像に相当。)が生成される。ただし、図4に例示したカメラ映像には、パイロン24や別の車両26が映り込んでいるが、S50を実行するのは車両後方に障害物がない場合なので、例えば、図4中からパイロン24や別の車両26を無くしたような映像(図示は省略。)が、S50における視点変換前の映像となる。
S50において生成される出力用映像(図5参照。)は、図4に例示するカメラ映像よりも、駐車枠22と車両20の後輪20Aとの位置関係を確認しやすいように視点位置等
が変換された映像とされている。このような視点変換を行った場合、図5に例示する出力用映像においては、パイロン24や別の車両26の存在する箇所は、映像内に収まらない箇所となる。ただし、S50を実行するのは、上述の通り、車両後方に障害物がない場合なので、パイロン24や別の車両26の存在する箇所が映像内に収まっていなくても、そのような箇所に障害物はないはずであり、その点の問題はない。
以上のようなS50を終えると、S60へと進む。また、上述の通り、S20又はS40からS60へと進む場合もある。S20又はS40からS60へと進む場合は、S50は実行されず、その場合は、図4に例示するようなカメラ映像そのものが出力用映像(本明細書でいう第一の出力用映像に相当。)とされる。そして、S60において、ECU1は、図4及び図5に例示したような互いに視点位置等が異なる出力用映像のうちのいずれか一方の出力用映像を、モニタ映像として左モニタ5及び右モニタ6に表示する(S60)。
S60を実行すると、例えば右モニタ6には、車両後方に何らかの障害物があれば図4に例示したような出力用映像が表示され、車両後方に障害物がなければ図5に例示したような出力用映像が表示される。なお、左モニタ5にも、同様の出力用映像が表示される(図示は省略。)。以上のような処理は、例えば毎秒30−120回程度の処理速度で繰り返し実行され、これにより、左モニタ5及び右モニタ6には、フレームレート30−120fps程度の動画で車両の後側方の映像が表示される。
[効果]
以上説明したように、上記車載映像処理システムによれば、車両が前進している場合や停車している場合には、S20において否定判断がなされ、右モニタ6には図4に例示したような視点位置等で映像が表示される。したがって、例えば、車両の走行中には、隣の車線や更にその隣の車線を走行する車両等を広範囲にわたって視認することができる。
また、車両が後退する際、車両後方に障害物がない場合は、S20において肯定判断、S40において否定判断がなされ、右モニタ6には図5に例示したような視点位置等で映像が表示される。したがって、右モニタ6には、車両20の後輪20A付近の映像が、図4に例示したような出力用映像が表示される場合以上に大きめに表示されることになり、駐車枠22と車両20の後輪20Aの位置関係を容易に確認できるようになる。よって、例えば、駐車枠22の白線にぴったりと寄せて車両を停車させたい場合でも、より厳密に停車位置の微調整を試行することができる。
一方、車両が後退する際、車両後方に障害物がある場合は、S20において肯定判断、S40において肯定判断がなされ、右モニタ6には図4に例示したような視点位置等で映像が表示される。したがって、この場合は、車両20の後輪20A付近の映像は、図5に例示したような出力用映像が表示される場合に比べて小さめの表示にはなるものの、パイロン24や別の車両26が映り込んだ出力用映像となる。よって、パイロン24や別の車両26のような障害物が存在することを右モニタ6で適切に視認でき、それらの障害物に気づかないまま車両を後退させてしまうのを抑制することができる。
(2)第二実施形態
次に、第二実施形態について説明する。なお、第二実施形態以降の実施形態は、第一実施形態と共通部分が多いので、第一実施形態との相違点を中心に詳述する。第一実施形態との共通部分に関しては、第一実施形態と同じ符号を付すことにして、その詳細な説明を省略する。
第二実施形態以降の各実施形態は、ハードウェア等の構成は第一実施形態と同様であり
、ECU1において実行される処理の一部が第一実施形態とは相違する。以下、ECU1において実行される処理について、図6に示すフローチャートに基づいて説明する。なお、第二実施形態以降の各実施形態において説明する各処理も、車両の作動開始に伴って実行され、以降は車両の作動停止まで繰り返し実行される処理である点は、第一実施形態と同様である。
第二実施形態の処理は、S40において、車両後方に障害物がある場合に(S40:NO)、S52を実行する点で第一実施形態とは相違する。すなわち、S52へ進んだ場合、ECU1は、左カメラ3及び右カメラ4それぞれによって撮影されたカメラ映像に対し、車両後退時障害物あり用の視点変換を施す(S52)。なお、車両後方に障害物がない場合(S40:YES)、ECU1は、左カメラ3及び右カメラ4それぞれによって撮影されたカメラ映像に対し、車両後退時障害物なし用の視点変換を施すが(S50)、これは第一実施形態で説明したS50と全く同様の処理ステップである。
本実施形態の場合、S52において、図4に例示したような視点位置等とされたカメラ映像に対し、視点変換を施すことにより、図7に例示するような出力用映像(本明細書でいう第一の出力用映像に相当。)が生成される。S52において生成される出力用映像(図7参照。)は、図4に例示するカメラ映像よりも、パイロン24や別の車両26の存在する箇所が大きめの映像で表示されるように視点位置等が変換された映像とされている。これにより、図4に例示したカメラ映像以上に、車両の後方にある障害物(パイロン24や別の車両26)を容易に視認することができる。
ちなみに、図7に例示する出力用映像は、図4に例示するカメラ映像よりも画角が狭く、その分だけ歪みが少ない映像になっている。また、図7に例示する出力用映像の視野範囲は、一般的なドアミラーと同程度に設定されている。そのため、一般的なドアミラーによる後方確認に慣れている運転者にとっては、図4に例示するカメラ映像がそのまま表示される場合よりも、違和感の少ない映像となる。
以上のように構成された車載映像処理システムでも、車両が前進している場合、停車している場合、車両が後退する際に障害物がない場合については、第一実施形態と全く同様の出力用映像が左モニタ5及び右モニタ6に表示される。したがって、これらの場合は、第一実施形態と全く同様の作用、効果を奏する。
また、車両が後退する際に、車両後方に障害物がある場合は、S20において肯定判断、S40において肯定判断がなされ、右モニタ6には図7に例示したような視点位置等で映像が表示される。したがって、この場合は、図4に例示するカメラ映像がそのまま表示される第一実施形態の装置に比べ、パイロン24や別の車両26が大きめの映像で表示されることになる。よって、出力用映像に映り込んでいる障害物については、より小さな障害物であっても、その存在を容易に視認することができ、そのような障害物に気づかないまま車両を後退させてしまうのを抑制することができる。
(3)第三実施形態
次に、第三実施形態について説明する。第三実施形態の場合、ECU1において実行される処理は、S52を実行したあとにS56を実行する点で、第二実施形態とは相違する。S56へ進んだ場合、ECU1は、S52で生成された出力用映像に対し、自車ボディ映像を合成する(S56)。S56以外は、第一実施形態、及び第二実施形態において、同一の符号を付して説明した各処理ステップと全く同様である。
S56で合成される自車ボディ映像は、S52で生成された出力用映像に映り込んでいる車体の一部をマスクするための映像である。例えば、S52において、図7に例示する
ような映像が生成された場合、更にS56が実行されると、図9に示すように、元の映像(図7参照。)に対し自車ボディ映像28が合成されることになる。
自車ボディ映像28としては、運転者が違和感を覚えないようなアングルで撮影された実車両の映像を、あらかじめ記憶部14に記憶しておいて、その映像を記憶部14から読み込んで利用すればよい。あるいは、そのような映像と同等な映像を生成するために必要なデータ(例えばポリゴンデータ。)などを、あらかじめ記憶部14に記憶しておいて、そのようなデータに基づいて実車両相当の映像を生成して利用してもよい。
図9に示すような映像を生成すれば、一般的なドアミラーによる後方確認に慣れている運転者にとっては、第二実施形態以上に違和感の少ない映像を右モニタ6に表示することができる。より詳しく説明すると、図3に例示したような状況下で、一般的なドアミラーによる後方確認を行うと、例えば、右側のドアミラーには、図10に示すような景色が映り込む。図7に示すカメラ映像と、図10に示すドアミラーの鏡像とを比較すると、右カメラ4の取り付け位置とドアミラーを見る運転者の目の位置との違いに起因して、それぞれに映り込んでいる車両20の領域に違いがあることがわかる。
ドアミラーによる後方確認に慣れている運転者にとっては、車両20と駐車枠22の白線が、図10のような位置関係で見えることによっても、車両20がその右側にある白線に寄せた状態にあることを把握している場合がある。このような場合、図7に示すような映像が右モニタ6に表示されると、車両20とその右側にある白線との間に、まだ距離があるようにも見え、これが違和感の一因になり得る。
これに対し、図9に示すような自車ボディ映像28が合成された映像を右モニタ6に表示すれば、違和感を覚える要因となっていた車両20の映像は、自車ボディ映像28によってマスクされる。これにより、図10に示すドアミラーの鏡像と類似の構図となる映像を右モニタ6に表示することができるので、ドアミラーによる後方確認に慣れている運転者に対し、違和感の少ない映像を見せることができる。
ちなみに、図10に示すドアミラーの鏡像を見ると明らかなように、ドアミラーで後方確認をする場合、パイロン24は、ドアミラーではほとんど見えない位置にある。一般的なドアミラーによる後方確認に慣れている運転者にとっては、このような見え方であることの方が適正であって違和感が少ない。したがって、違和感の低減を重視する場合には、自車ボディ映像28によってパイロン24が見えなくなること自体は問題ではない。それでもパイロン24を見たい場合には、図示しないバックモニタなどを併用するといった解決法もある。
(4)第四実施形態
次に、第四実施形態について説明する。第四実施形態の場合、ECU1において実行される処理は、第三実施形態と同等な処理ステップによって構成される。ただし、S56において、S52で生成された出力用映像に対して合成される自車ボディ映像が、第三実施形態とは異なる構成とされている。
すなわち、上述の通り、第三実施形態の場合は、一般的なドアミラーによる後方確認に慣れている運転者にとって違和感が低減されるように、自車ボディ映像28によってパイロン24が見えなくなるような構成としてあった。ただし、パイロン24が見えるような構成にするのも一案であり、その方が障害物の有無をより確認しやすい。
そこで、第四実施形態においては、自車ボディ映像28によるマスクと、パイロン24の表示とを両立させるため、図11に示すように、自車ボディ映像28の一部を不透過部
28A、残りの一部を透過部28Bとした。
不透過部28Aは、元の映像が透過表示されない領域である。透過部28Bは、元の映像が透過表示される領域である。本実施形態の場合、実際の車体の映像が映り込んでいる箇所を含む範囲が不透過部28Aでマスクされ、実際の車体の映像が映り込んでいない箇所が透過部28Bにおいて透過表示される。
映像中において、実際の車体の映像が映り込んでいる箇所がどのような範囲になるのかは、左カメラ3及び右カメラ4によって撮影される映像の視点位置等と、車両20の具体的な形状等とに応じて変わり得る。ただし、あらかじめ実車両で撮影して車体の映像が映り込む範囲を特定し、必要があれば、特定した範囲に対して更にある程度のマージンを加えてマスク範囲を決めることは可能なので、このような手法で、不透過部28A及び透過部28Bの範囲をそれぞれ設定しておけばよい。
このような不透過部28A及び透過部28Bを有する自車ボディ映像28を合成すれば、出力用映像全体としては、図10に示すドアミラーの鏡像と類似の構図となる。したがって、第三実施形態と同様に、ドアミラーによる後方確認に慣れている運転者に対し、違和感の少ない映像を見せることができる。しかも、透過部28Bにおいては、自車ボディ映像28が合成された箇所にある障害物(例えば、図11中に示すパイロン24。)を見ることもできる。したがって、第三実施形態とは異なり、自車ボディ映像28を合成したことにより、障害物に関する有用な情報が欠落してしまうのを抑制することができる。また、不透過部28Aにおいては、実際の車体の映像は透過表示されないので、例えば、実際の車体の映像の一部を何らかの障害物と誤認するのを抑制することができる。
なお、上述のような不透過部28A及び透過部28Bを有する自車ボディ映像28を合成する場合、出力用映像内における透過部28Bの範囲(以下、第一範囲29Aとも称する。)や、出力用映像内における自車ボディ映像28が合成されない範囲(以下、第二範囲29Bとも称する。)に関し、各範囲の形状、大きさ、両範囲の境界の位置等は、あらかじめ決めておくことができる。例えば、自車ボディ映像28としては、先に説明したような、実車両の映像やデータから生成された実車両相当の映像を利用すればよいが、いずれの場合とも、出力用映像内での合成範囲は不変なので、その合成範囲を特定することが可能である。
そこで、上記第一範囲29Aと第二範囲29Bが事前に特定できることを利用し、上記第一範囲29Aと第二範囲29Bとで視点変換の有無又は程度を変更することにより、第二範囲29Bにおいては第一範囲29Aよりも映像の歪みが小となるようにしてもよい。
例えば、第一範囲29Aにおいては映像に歪みが生じる視点変換を行う一方、第二範囲29Bにおいては第一範囲29A相当の視点変換を行わないようにしてもよい。あるいは、例えば、第一範囲29A及び第二範囲29Bの双方で視点変換を行うものの、第一範囲29Aにおいては第二範囲29Bよりも映像に歪みが生じる視点変換を行う一方、第二範囲29Bにおいては第一範囲29Aよりも映像に歪みが生じない視点変換を行うようにしてもよい。
このように構成すれば、自車ボディ映像28に隠れない第二範囲29Bにおいては、より歪みが小さい映像を表示することができる。また、第二範囲29Bよりも歪みが大となる第一範囲29Aにおいては、自車ボディ映像28内の透過部28Bにおける透過表示とすることで、歪みが大きめの映像であることを目立たないようにすることができる。
しかも、これら歪みの程度が異なる映像の境界は、自車ボディ映像28の輪郭と一致す
るように合成されるので、境界の両側にある映像に多少のずれが生じた場合でも、そのようなずれを自車ボディ映像28の輪郭に重ねることで、目立たないようにすることができる。
(5)第五実施形態
次に、第五実施形態について説明する。第五実施形態の場合、ECU1において実行される処理は、S52を実行したあとにS54を実行する点で、第三実施形態、及び第四実施形態とは相違する。S54へ進んだ場合、ECU1は、障害物までの距離に応じて透過範囲及びマスク範囲を設定する(S54)。S54以外は、第一実施形態、第二実施形態、第三実施形態、及び第四実施形態において、同一の符号を付して説明した各処理ステップと全く同様である。
第五実施形態においては、図13に示すように、自車ボディ映像28を第一の不透過部28A、透過部28B、及び第二の不透過部28Cで構成している。第一の不透過部28A及び第二の不透過部28Cは、元の映像が透過表示されない領域であり、透過部28Bは、元の映像が透過表示される領域である。
第一の不透過部28Aは、第四実施形態における不透過部28Aと一致する範囲に設定され、その範囲は左カメラ3及び右カメラ4によって撮影される映像の視点位置等と、車両20の具体的な形状等とに応じて、静的に設定されている。一方、透過部28B及び第二の不透過部28Cは、これら双方を合わせた範囲が第四実施形態における不透過部28Aと一致する範囲に設定されている。しかも、第二の不透過部28Cは、障害物までの距離に応じて、その範囲が動的に増減される。
例えば、図13に例示した出力用映像は、車両の後方には別の車両26が存在するものの、図11に例示してあったパイロン24は存在していない場合を想定した映像である。この場合、障害物までの距離としては、別の車両26までの距離が検出され、自車両から別の車両26に至るまでの範囲は、第二の不透過部28Cによってマスクされる。そして、自車両側から見て別の車両26よりも遠方となる範囲は、透過部28Bとされる。なお、図示は省略するが、パイロン24が存在する場合は、障害物までの距離としては、パイロン24までの距離が検出され、透過部28Bのうち、自車両からパイロン24に至るまでの範囲が、第二の不透過部28Cによってマスクされる。そして、自車両側から見てパイロン24よりも遠方となる範囲は、透過部28Bとされる。
障害物までの距離としては、障害物検知部7において実測された距離が採用すればよい。また、必要があれば、所定のマージン分だけ透過部28Bを増大させてもよく、その場合は、障害物検知部7において実測された距離から所定のマージン分に相当する距離を減算してもよい。
以上のような構成を採用すれば、第二の不透過部28Cによってマスクされる範囲には、障害物がないものと判断できるようになる。また、例えば、駐車枠22のような障害物ではないもの(路面から突出する高さがないもの。)が存在する箇所については、第二の不透過部28Cによってマスクされるので、透過部28Bを通して駐車枠22が見える場合とは異なり、駐車枠22を何らかの障害物ではないかと誤認するのを抑制できる。
なお、第五実施形態においても、出力用映像内における透過部28Bの範囲(第一範囲29A)と、出力用映像内における自車ボディ映像28が合成されない範囲(第二範囲29B)とでは、第四実施形態同様に、視点変換の有無又は程度を変更してもよい。これにより、第二範囲29Bにおいては第一範囲29Aよりも映像の歪みが小となるようにすることで、自車ボディ映像28に隠れない第二範囲29Bにおいては、より歪みが小さい映
像を表示することができる。また、第二範囲29Bよりも歪みが大となる第一範囲29Aにおいては、自車ボディ映像28内の透過部28Bにおける透過表示とすることで、歪みが大きめの映像であることを目立たないようにすることができる。さらに、歪みの程度が異なる映像の境界において映像に多少のずれが生じた場合でも、そのようなずれを自車ボディ映像28の輪郭に重ねることで、目立たないようにすることができる。
(6)他の実施形態
以上、映像処理装置、及び車載映像処理システムについて、例示的な実施形態を挙げて説明したが、上述の実施形態は本発明の一態様として例示されるものに過ぎない。すなわち、本発明は、上述の例示的な実施形態に限定されるものではなく、本発明の技術的思想を逸脱しない範囲内において、様々な形態で実施することができる。
例えば、上記実施形態では、図示の都合上、便宜的に記憶部14をECU1が備える構成として図示してあるが、記憶部14はECU1がアクセス可能なメモリであれば、ECU1の外部にあってもよい。
また、上記実施形態において、一つの構成要素で実現していた所定の機能を、複数の構成要素が協働して実現するように構成してあってもよい。あるいは、上記実施形態では、複数の構成要素それぞれが有していた複数の機能や、複数の構成要素が協働して実現していた所定の機能を、一つの構成要素が実現するように構成してあってもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
また、上述した映像処理装置、及び車載映像処理システムの他、当該映像処理装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体など、種々の形態で本発明を実現することもできる。
なお、上記実施形態と特許請求の範囲との対応関係を理解しやすくするために、特許請求の範囲には、上記実施形態中で示した符号を括弧書きで記載したが、当該記載は本発明の技術的範囲が上述の実施形態に限定されることを意味する記載ではない。
1…電子制御装置(ECU)、3…左カメラ、4…右カメラ、5…左モニタ、6…右モニタ、7…障害物検知部、8…シフト位置検知部、11…映像入力部、12…映像処理部、13…映像出力部、14…記憶部、15…障害物判定部、16…シフト位置判定部、20…車両、20A…後輪、22…駐車枠、24…パイロン、26…別の車両、28…自車ボディ映像、28A…不透過部、又は第一の不透過部、28B…透過部、28C…第二の不透過部、29A…第一範囲、29B…第二範囲。

Claims (7)

  1. 車両の後方に存在する障害物を検知可能な障害物検知部(7)から、前記障害物に関する情報を取得して、前記障害物の有無を判定する障害物判定部(15,S30)と、
    前記車両の後側方を撮影可能に構成されたカメラ(3,4)から、当該カメラで撮影されたカメラ映像を入力可能な映像入力部(11,S10)と、
    前記映像入力部によって入力された前記カメラ映像に基づいて第一の出力用映像及び第二の出力用映像を生成可能で、前記障害物判定部によって前記障害物があると判定された場合には、前記第一の出力用映像を生成し、前記障害物判定部によって前記障害物がないと判定された場合には、前記第二の出力用映像を生成する映像処理部(12,S50,S52)と、
    前記映像処理部によって生成される前記第一の出力用映像又は前記第二の出力用映像を、車室内に配設された表示装置(5,6)へと出力する映像出力部(13,S60)と、
    を備え、
    前記映像処理部は、前記第一の出力用映像及び前記第二の出力用映像のうちの少なくとも一方を生成する際に、視点位置、視線方向、及び視野範囲のうちの少なくとも一つを変更対象として、前記カメラ映像に対して前記変更対象を変更する映像変換処理を施すことにより、前記変更対象が互いに異なる前記第一の出力用映像及び前記第二の出力用映像を生成可能で(S50,S52)、前記映像変換処理として、前記第一の出力用映像に前記カメラ映像よりも前記障害物の存在する箇所が大きく表示されることになる映像変換処理、又は前記第一の出力用映像には車両後退時用の視点変換が施されず前記第二の出力用映像には車両後退時用の視点変換が施される映像変換処理を実行可能に構成されている
    映像処理装置(1)。
  2. 請求項1に記載の映像処理装置において、
    前記障害物判定部は、前記車両が後退する場合に(S20:YES)、前記障害物の有無を判定するように構成されている
    映像処理装置。
  3. 請求項1又は請求項2に記載の映像処理装置において、
    前記映像処理部は、前記第一の出力用映像及び前記第二の出力用映像のうちの少なくとも一方を生成する際に、車体の一部に相当する自車ボディ映像(28)を、記憶部(14)から読み出すか記憶部に記憶されたデータに基づいて生成して、前記カメラ映像又は当該カメラ映像に基づいて生成される映像中に映り込んでいる実際の車体の映像を覆い隠す範囲を含めた位置に、前記自車ボディ映像を描画する処理(S56)を実行可能に構成されている
    映像処理装置。
  4. 請求項3に記載の映像処理装置において、
    前記映像処理部(S56)は、前記カメラ映像又は当該カメラ映像に基づいて生成される映像が透過表示されない不透過部(28A,28C)と、前記カメラ映像又は当該カメラ映像に基づいて生成される映像が透過表示される透過部(28B)とを有する前記自車ボディ映像を生成可能で、前記自車ボディ映像が描画される範囲の内、前記実際の車体の映像が映り込んでいる箇所を含む範囲が前記不透過部でマスクされ、前記実際の車体の映像が映り込んでいない箇所が前記透過部において透過表示されるように構成されている
    映像処理装置。
  5. 請求項4に記載の映像処理装置において、
    前記映像処理部(S54)は、前記障害物検知部から取得した情報に基づいて、前記車両から前記障害物までの距離を測定又は推定し、前記障害物よりも近い位置にある範囲が前記不透過部(28C)でマスクされ、前記障害物の存在する位置以遠にある箇所が前記透過部において透過表示されるように構成されている
    映像処理装置。
  6. 請求項4又は請求項5に記載の映像処理装置において、
    前記映像処理部(S54,S56)は、前記透過部とされる第一範囲(29A)と、前記自車ボディ映像が合成されない第二範囲(29B)とで前記映像変換処理の有無又は程度を変更することにより、前記第二範囲においては前記第一範囲よりも映像の歪みが小となる前記映像変換処理を実行するように構成されている
    映像処理装置。
  7. 車両の後方に存在する障害物を検知可能な障害物検知部(7)と、
    前記車両の後側方を撮影可能に構成されたカメラ(3,4)と、
    前記カメラで撮影された映像に対して所定の映像変換処理を施すように構成された映像処理装置(1)と
    車室内に配設され、前記映像処理装置によって前記映像処理が施された映像を表示可能な表示装置(5,6)と
    を備え、
    前記映像処理装置は、
    前記障害物検知部(7)から、前記障害物に関する情報を取得して、前記障害物の有無を判定する障害物判定部(15,S30)と、
    前記カメラ(3,4)から、当該カメラで撮影されたカメラ映像を入力可能な映像入力部(11,S10)と、
    前記映像入力部によって入力された前記カメラ映像に基づいて第一の出力用映像及び第二の出力用映像を生成可能で、前記障害物判定部によって前記障害物があると判定された場合には、前記第一の出力用映像を生成し、前記障害物判定部によって前記障害物がないと判定された場合には、前記第二の出力用映像を生成する映像処理部(12,S50,S52)と、
    前記映像処理部によって生成される前記第一の出力用映像又は前記第二の出力用映像を、車室内に配設された表示装置(5,6)へと出力する映像出力部(13,S60)と、
    を備え、
    前記映像処理部は、前記第一の出力用映像及び前記第二の出力用映像のうちの少なくとも一方を生成する際に、視点位置、視線方向、及び視野範囲のうちの少なくとも一つを変更対象として、前記カメラ映像に対して前記変更対象を変更する映像変換処理を施すことにより、前記変更対象が互いに異なる前記第一の出力用映像及び前記第二の出力用映像を生成可能で(S50,S52)、前記映像変換処理として、前記第一の出力用映像に前記カメラ映像よりも前記障害物の存在する箇所が大きく表示されることになる映像変換処理、又は前記第一の出力用映像には車両後退時用の視点変換が施されず前記第二の出力用映像には車両後退時用の視点変換が施される映像変換処理を実行可能に構成されている
    車載映像処理システム。
JP2014257786A 2014-12-19 2014-12-19 映像処理装置、及び車載映像処理システム Active JP6439436B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014257786A JP6439436B2 (ja) 2014-12-19 2014-12-19 映像処理装置、及び車載映像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014257786A JP6439436B2 (ja) 2014-12-19 2014-12-19 映像処理装置、及び車載映像処理システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018216710A Division JP6575668B2 (ja) 2018-11-19 2018-11-19 映像処理装置

Publications (2)

Publication Number Publication Date
JP2016119558A JP2016119558A (ja) 2016-06-30
JP6439436B2 true JP6439436B2 (ja) 2018-12-19

Family

ID=56243196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014257786A Active JP6439436B2 (ja) 2014-12-19 2014-12-19 映像処理装置、及び車載映像処理システム

Country Status (1)

Country Link
JP (1) JP6439436B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6662175B2 (ja) * 2016-04-21 2020-03-11 日産自動車株式会社 表示方法及び運転支援装置
JP7055743B2 (ja) * 2016-08-08 2022-04-18 株式会社小糸製作所 複数カメラを用いた車両用モニタリングシステム
JP6754993B2 (ja) * 2016-09-28 2020-09-16 パナソニックIpマネジメント株式会社 車載映像表示装置、車載映像表示方法、およびプログラム
JP6552559B2 (ja) * 2017-08-01 2019-07-31 三菱電機株式会社 カメラモニタリングシステム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4404103B2 (ja) * 2007-03-22 2010-01-27 株式会社デンソー 車両外部撮影表示システムおよび画像表示制御装置
JP2008254710A (ja) * 2007-04-09 2008-10-23 Fujitsu Ten Ltd 障害物検知装置
JP4985250B2 (ja) * 2007-09-06 2012-07-25 株式会社デンソー 駐車支援装置
JP5915923B2 (ja) * 2011-04-14 2016-05-11 いすゞ自動車株式会社 画像処理装置及び運転支援システム
JP2014116756A (ja) * 2012-12-07 2014-06-26 Toyota Motor Corp 周辺監視システム

Also Published As

Publication number Publication date
JP2016119558A (ja) 2016-06-30

Similar Documents

Publication Publication Date Title
JP5099451B2 (ja) 車両周辺確認装置
JP5503660B2 (ja) 運転支援表示装置
JP5479956B2 (ja) 車両用周囲監視装置
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
CN107438538B (zh) 用于显示车辆的车辆周围环境的方法
JP5321711B2 (ja) 車両用周辺監視装置および映像表示方法
JP5093611B2 (ja) 車両周辺確認装置
JP2009081664A (ja) 車両用周辺監視装置および映像表示方法
JP6439436B2 (ja) 映像処理装置、及び車載映像処理システム
JP6035298B2 (ja) ビジュアルシステム
JP2017520133A (ja) 車両周辺イメージ生成装置および方法
US10239455B2 (en) Reactive smart rear view display mirror
CN109415018B (zh) 用于数字后视镜的方法和控制单元
US11034305B2 (en) Image processing device, image display system, and image processing method
JP2016149613A (ja) カメラパラメータ調整装置
CN112351242A (zh) 图像处理装置以及图像处理方法
JP2009073250A (ja) 車両後方表示装置
JPWO2018042976A1 (ja) 画像生成装置、画像生成方法、記録媒体、および画像表示システム
JP7029350B2 (ja) 画像処理装置および画像処理方法
US11603043B2 (en) Image processing apparatus, image processing method, and image processing system
JP6575668B2 (ja) 映像処理装置
JP6488628B2 (ja) 映像処理装置、及び車載映像処理システム
JP6439233B2 (ja) 車両用画像表示装置及び画像処理方法
US20200231099A1 (en) Image processing apparatus
JP6136748B2 (ja) 2次元3次元表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181105

R151 Written notification of patent or utility model registration

Ref document number: 6439436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250