JP2019102929A - Video processing system, video processing apparatus, and video processing method - Google Patents
Video processing system, video processing apparatus, and video processing method Download PDFInfo
- Publication number
- JP2019102929A JP2019102929A JP2017230632A JP2017230632A JP2019102929A JP 2019102929 A JP2019102929 A JP 2019102929A JP 2017230632 A JP2017230632 A JP 2017230632A JP 2017230632 A JP2017230632 A JP 2017230632A JP 2019102929 A JP2019102929 A JP 2019102929A
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- imaging unit
- image
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、移動体に搭載される映像処理システム及び映像処理装置並びに移動体に搭載される映像処理システムおいて用いられる映像処理方法に関するものである。 The present invention relates to a video processing system and a video processing apparatus mounted on a moving body, and a video processing method used in a video processing system mounted on a moving body.
近年、自車両の周囲の状況を速やかに確認するために、後方又は側方を撮像するカメラを搭載する車両が増加している。カメラが車外に配置される場合、カメラのレンズに泥などの汚れが付着し、撮像される映像に汚れが写り込むことがある。また、カメラが車内に配置される場合も、カメラのレンズを覆うガラス面(例えば、リアウィンドウ。)に汚れが付着したり、傷がついたりして、撮像された映像に汚れや傷が写り込むことがある。 2. Description of the Related Art In recent years, vehicles equipped with cameras for capturing images of the rear or the side have been increasing in order to quickly confirm the situation around the host vehicle. When the camera is disposed outside the vehicle, dirt such as mud may be attached to the lens of the camera, and the dirt may be reflected in the image to be captured. In addition, even when the camera is placed in a car, the glass surface (for example, the rear window) covering the lens of the camera may be stained or scratched, and the dirt or scratches may appear in the captured image. I can get stuck.
これに対し、車両の後方又は側方を撮像する車載カメラ装置において、カメラのレンズ又はカメラレンズを覆うガラス面に泥などの異物が付着した場合に、この異物を自動検知する技術が知られている(例えば、特許文献1参照)。 On the other hand, in an on-vehicle camera device for imaging the rear or side of a vehicle, there is known a technique for automatically detecting foreign matter such as mud when adhering to the lens of the camera or the glass surface covering the camera lens. (See, for example, Patent Document 1).
特許文献1に開示された車載カメラ装置では、カメラが撮像した撮像映像における、表示態様が変化しない領域を検出することによって、カメラのレンズ表面に付着した異物を検出している。
In the on-vehicle camera device disclosed in
ところで、特許文献1に開示された技術において、異物の検出精度を高くしようとすると、撮像映像中における表示態様が変化しない領域を精度良く検知する必要がある。しかしながら、表示態様が変化しない領域を精度よく検知しようとすると、継続的に映像に写り込んだ道路上の白線なども、表示態様が変化しない領域として検知してしまい、異物の検出精度が低下する恐れがあった。
By the way, in the technique disclosed in
このようなことから、微少な異物や透過性の高い汚れがカメラのレンズに付着した場合など、検出が困難な不具合が撮像映像に発生した場合であっても、高精度に該不具合を検知する映像処理システムが求められる。 As such, even when a defect that is difficult to detect occurs in a captured image, such as when a minute foreign substance or highly permeable dirt adheres to the lens of the camera, the defect is detected with high accuracy. A video processing system is required.
本発明は、検出が困難な不具合が撮像映像に発生した場合であっても、高精度に該不具合を検知することが可能な映像処理システム、映像処理装置及び映像処理方法を提供することを目的とする。 An object of the present invention is to provide an image processing system, an image processing apparatus, and an image processing method capable of detecting a defect with high accuracy even if a defect that is difficult to detect occurs in a captured video. I assume.
上記目的を達成するために、本発明の映像処理システムは、移動体に設置される複数の撮像部と、複数の撮像部のうちの第1の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第1の特徴量検出部と、複数の撮像部のうちの第1の撮像部以外の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第2の特徴量検出部と、第1の特徴量検出部で検出された第1の撮像範囲の特徴量と第2の特徴量検出部で検出された第1の撮像範囲の特徴量とを比較して、第1の撮像部で撮像された映像に含まれる不具合領域及び第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出部と、を備える。 In order to achieve the above object, a video processing system according to the present invention comprises a plurality of imaging units installed on a moving object, and at least a first imaging in an image captured by a first imaging unit of the plurality of imaging units. A first feature amount detection unit that detects a feature amount from a video of a range, and a feature amount from a video of at least a first imaging range in a video captured by an imaging unit other than the first imaging unit among the plurality of imaging units Of the first imaging range detected by the first feature amount detection unit, and the features of the first imaging range detected by the second feature amount detection unit At least one of the defect area included in the image captured by the first imaging unit and the defect area included in the image captured by the imaging unit other than the first And a feature amount comparison detection unit to detect.
また、上記目的を達成するために、本発明の映像処理装置は、移動体に設置される複数の撮像部のうちの第1の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第1の特徴量検出部と、複数の撮像部のうちの第1の撮像部以外の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第2の特徴量検出部と、第1の特徴量検出部で検出された第1の撮像範囲の特徴量と第2の特徴量検出部で検出された第1の撮像範囲の特徴量とを比較して、第1の撮像部で撮像された映像に含まれる不具合領域及び第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出部と、を備える。 Further, in order to achieve the above object, according to the video processing device of the present invention, a video of at least a first imaging range in a video captured by a first imaging unit among a plurality of imaging units installed on a moving object A first feature amount detection unit for detecting a feature amount, and a feature amount is detected from an image of at least a first imaging range in an image captured by an imaging unit other than the first imaging unit among the plurality of imaging units Comparison of the feature quantities of the first imaging range detected by the first feature quantity detection unit with the feature quantities of the first imaging range detected by the second feature quantity detection unit And a feature amount for detecting at least one of the defect area included in the image captured by the first imaging unit and the defect area included in the image captured by the imaging unit other than the first imaging unit And a comparison detection unit.
また、上記目的を達成するために、本発明の映像処理方法は、移動体に設置される複数の撮像部のうちの第1の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第1の特徴量検出ステップと、複数の撮像部のうちの第1の撮像部以外の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第2の特徴量検出ステップと、第1の特徴量検出ステップで検出された第1の撮像範囲の特徴量と第2の特徴量検出ステップで検出された第1の撮像範囲の特徴量とを比較して、第1の撮像部で撮像された映像に含まれる不具合領域及び第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出ステップと、を備える。 Further, in order to achieve the above object, according to the image processing method of the present invention, an image of at least a first imaging range in an image imaged by a first imaging unit of a plurality of imaging units installed on a moving object A first feature amount detection step of detecting a feature amount, and detecting a feature amount from an image of at least a first imaging range in an image captured by an imaging unit other than the first imaging unit among the plurality of imaging units; Comparison of the feature amounts of the first imaging range detected in the first feature amount detection step with the second feature amount detection step and the feature amounts of the first imaging range detected in the second feature amount detection step And a feature amount for detecting at least one of the defect area included in the image captured by the first imaging unit and the defect area included in the image captured by the imaging unit other than the first imaging unit And comparing and detecting.
本発明によれば、検出が困難な不具合が撮像映像に発生した場合であっても、高精度に該不具合を検知することが可能である。 According to the present invention, even when a defect that is difficult to detect occurs in a captured image, it is possible to detect the defect with high accuracy.
以下、本発明の実施の形態について、図面を参照しながら説明する。なお、同じ構成要素には同じ符号を付している。また、図面は、理解しやすくするためにそれぞれの構成要素を模式的に示している。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the same component. Also, the drawings schematically show the respective components in order to facilitate understanding.
(実施の形態1)
図1は、本発明の実施の形態1に係る各部の機能の一例を示すブロック図である。本発明の実施の形態1に係る映像処理システムは、第1の撮像部1と、第2の撮像部2と、映像処理装置10と、表示部4と、を備える。
FIG. 1 is a block diagram showing an example of the function of each unit according to
第1の撮像部1は、例えば、車両に設置されるCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像装置である。
The
第1の撮像部1は、有線または無線により、映像処理装置10と通信可能に接続される。第1の撮像部1は、撮像した映像の映像データをリアルタイムで映像処理装置10に送信する。
The
第2の撮像部2は、例えば、車両に設置されるCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像装置である。
The
第2の撮像部2は、有線または無線により、映像処理装置10と通信可能に接続される。第2の撮像部2は、撮像した映像の映像データをリアルタイムで映像処理装置10に送信する。
The
表示部4は、例えば、車室の天井の前部に設置される電子ミラーなどの表示装置である。表示部4は、有線または無線により、映像処理装置10と通信可能に接続される。
The display unit 4 is, for example, a display device such as an electronic mirror installed at the front of a ceiling of a vehicle compartment. The display unit 4 is communicably connected to the
図2に、本発明の実施の形態に係る第1の撮像部1、第2の撮像部2及び表示部4の設置位置の一例を示す。
FIG. 2 shows an example of installation positions of the
第1の撮像部1は、例えば、車両のリアウィンドウの内側部分に設置されるリアカメラ5であり、車両後方を撮像する。ただし、これに限られず、第1の撮像部1は、右側前扉の外側の窓付近に設置される右サイドカメラ6、左側前扉の外側の窓付近に設置される左サイドカメラ7、車外の後方に配置されるバックカメラ8であってもよい。
The
第2の撮像部2は、リアカメラ5、右サイドカメラ6、左サイドカメラ7またはバックカメラ8のうちのいずれかであって、且つ、第1の撮像部1とは異なるものである。
The
表示部4は、上述したように、例えば、車室の天井の前部に設置される電子ミラーであり、車両のルームミラーの代わりに設けられる。また、表示部4は、車両のインストルメントパネルに設置されてもよい。 As described above, the display unit 4 is, for example, an electronic mirror installed at the front of the ceiling of the cabin, and is provided instead of the rearview mirror of the vehicle. Moreover, the display part 4 may be installed in the instrument panel of a vehicle.
図1の説明に戻る。映像処理装置10は、異物消去部10aと、第3の映像抽出部17と、第4の映像抽出部18と、第1の映像合成部19と、を備える。
It returns to the explanation of FIG. The
異物消去部10aは、第1の映像抽出部11と、第2の映像抽出部13と、第1の特徴量検出部12と、第2の特徴量検出部14と、特徴量比較部15と、異物検出部16と、を備える。
The foreign
異物消去部10aは、第1の撮像部1及び第2の撮像部2によって撮像された映像の映像データを受信する。異物消去部10aは、受信した映像データに基づいて、第1の撮像部1又は第2の撮像部2によって撮像された映像に不具合があるか否か、また、映像に不具合がある場合は、映像のどの位置に不具合があるかを検出する。
The foreign
第1の撮像部1又は第2の撮像部2によって撮像された映像に不具合がある場合とは、第1の撮像部1又は第2の撮像部2のカメラレンズに汚れが付着して、撮像映像に汚れが写り込む場合である。あるいは、第1の撮像部1又は第2の撮像部2のカメラの撮像素子に埃などの異物が付着して、撮像映像に異物が写り込む場合である。あるいは車両のリアウィンドウの内側にカメラを設置する場合に、リアウィンドウの外側に異物が付着する場合である。ただし、第1の撮像部1又は第2の撮像部2が撮像した映像に不具合がある場合とは、これらに限られず、撮像映像に乱れが生じる場合など、あらゆる映像の不具合が含まれる。
In the case where there is a defect in the image captured by the
第1の映像抽出部11は、第1の撮像部1によって撮像された映像から特徴量を検出するために、所望の映像を抽出する映像抽出部である。第1の映像抽出部11は、映像切り出し部11a、解像度変更部11b及び画質変更部11cにおいて映像の抽出を行う。
The first
映像切り出し部11aは、第1の撮像部1で撮像された映像から所定の撮像範囲の映像を切り出す切り出し部である。映像切り出し部11aは、後述する映像切り出し部13aによって切り出される所定の撮像範囲の映像と撮像範囲が一致するように、第1の撮像部1で撮像された映像から所定の範囲の映像を切り出す。なお、映像切り出し部11aが切り出す映像の範囲は、予め定められている。
The
解像度変更部11bは、映像切り出し部11aが切り出した映像の解像度を所定の解像度に変更する映像処理部である。解像度変更部11bは、後述する解像度変更部13bによって変更された映像の解像度と一致するように、映像切り出し部11aが切り出した映像の解像度を変更する。
The
画質変更部11cは、解像度変更部11bにおいて解像度が変更された映像の画質を変更する映像処理部である。ここで、画質とは、例えば、映像の色調をいう。画質変更部11cは、例えば、トーンカーブ補正を行い映像の色調を変更する。画質変更部11cは、後述する画質変更部13cによって画質が変更された映像の画質と一致するように、解像度変更部11bにおいて解像度が変更された映像の画質を変更する。
The image
第1の特徴量検出部12は、第1の映像抽出部11において抽出された映像のエッジ検出を行い、検出されたエッジの累積エッジ量を検出する検出部である。
The first feature
第1の特徴量検出部12は、まず、入力された映像をグレイスケールに変換する。第1の特徴量検出部12は、例えば、Cannyフィルタを用いて、グレイスケールに変換された映像のエッジ検出を行う。
First, the first feature
また、第1の特徴量検出部12は、映像から検出されたエッジの累積処理を行う。エッジの累積処理とは、映像のエッジ検出が行われるごとに、新たにエッジ検出が行われた映像と過去にエッジ検出が行われた映像との論理積をとることをいう。これにより、新たにエッジ検出が行われた映像と過去にエッジ検出が行われた映像とのエッジの重複部分のみが新たなエッジとして検出されることになる。
Further, the first feature
このようなエッジの累積処理を行うことにより、第1の特徴量検出部12は、第1の撮像部1によって撮像された映像の累積エッジ量を検出する。移動中に撮像された映像に対して上記処理を行なうと、不具合の無い領域のエッジは変化するため累積エッジ量は小さくなり、累積時間が大きくなるとともに累積エッジ量は0に近づく。一方で、不具合が存在するエリアは、エッジが変化しないため、累積エッジ量は一定値を示す。
By performing such edge accumulation processing, the first feature
第2の映像抽出部13は、第2の撮像部2によって撮像された映像から特徴量を検出するために、所望の映像を抽出する映像抽出部である。第2の映像抽出部13は、映像切り出し部13a、解像度変更部13b及び画質変更部13cにおいて映像の抽出を行う。
The second
映像切り出し部13aは、第2の撮像部2で撮像された映像から所定の撮像範囲の映像を切り出す映像切り出し部である。映像切り出し部13aは、上述した映像切り出し部11aによって切り出される所定の撮像範囲の映像と撮像範囲が一致するように、第2の撮像部2で撮像された映像から所定の範囲の映像を切り出す。なお、映像切り出し部13aが切り出す映像の範囲は、予め定められている。
The
解像度変更部13bは、映像切り出し部13aが切り出した映像の解像度を所定の解像度に変更する映像処理部である。解像度変更部13bは、上述した解像度変更部11bによって変更された映像の解像度と一致するように、映像切り出し部13aが切り出した映像の解像度を変更する。
The
画質変更部13cは、解像度変更部13bによって解像度が変更された映像の画質を変更する映像処理部である。画質変更部13cは、例えば、トーンカーブ補正を行い映像の色調を変更する。画質変更部13cは、上述した画質変更部11cによって画質が変更された映像の画質と一致するように、解像度変更部13bによって解像度が変更された映像の画質を変更する。
The image
第2の特徴量検出部14は、第2の映像抽出部13によって抽出された映像のエッジ検出を行い、検出されたエッジの累積エッジ量を検出する検出部である。
The second feature
第2の特徴量検出部14は、まず、入力された映像をグレイスケールに変換する。第2の特徴量検出部14は、例えば、Cannyフィルタを用いて、グレイスケールに変換された映像のエッジ検出を行う。
First, the second feature
また、第2の特徴量検出部14は、映像から検出されたエッジの累積処理を行う。エッジの累積処理を行うことにより、第2の特徴量検出部14は、第2の撮像部2によって撮像された映像の累積エッジ量を検出する。
Further, the second feature
特徴量比較部15は、第1の特徴量検出部12で検出された累積エッジ量と第2の特徴量検出部14で検出された累積エッジ量との比較を行う比較部である。
The feature
特徴量比較部15は、第1の特徴量検出部12から入力される映像を複数のエリアに分割し、分割したエリアごとに累積エッジ量を算出する。また、特徴量比較部15は、第2の特徴量検出部14から入力される映像を複数のエリアに分割し、分割したエリアごとに累積エッジ量を算出する。
The feature
第1の特徴量検出部12及び第2の特徴量検出部14から特徴量比較部15に入力された映像は、例えば、12のエリアにそれぞれ同じように分割される。ただし、映像の分割数は、これに限られず、映像処理装置10の処理能力などに応じて適宜設定すればよい。
An image input from the first feature
また、第1の特徴量検出部12及び第2の特徴量検出部14から特徴量比較部15に入力された映像の同じ位置にあるエリアには、それぞれ同じエリアナンバーが付される。そして、第1の特徴量検出部12から入力された映像と第2の特徴量検出部14から入力された映像において同じエリアナンバーが付されたエリアの間で、累積エッジ量が比較される。
The same area number is given to the areas at the same positions of the images input from the first feature
特徴量比較部15は、第1の特徴量検出部12から入力された映像における分割されたエリアのうち、あるエリアナンバーのエリアの累積エッジ量が所定の閾値以上となった場合、該エリアを第1の異物付着候補に設定する。また、特徴量比較部15は、第2の特徴量検出部14から入力された映像における分割されたエリアのうち、あるエリアナンバーのエリアの累積エッジ量が所定の閾値以上となった場合、該エリアを第2の異物付着候補に設定する。
When the cumulative edge amount of the area of a certain area number out of the divided areas in the video input from the first feature
特徴量比較部15は、第1の異物付着候補に設定されたエリアの累積エッジ量と、第2の特徴量検出部14から入力された映像において該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。また、特徴量比較部15は、第2の異物付着候補に設定されたエリアの累積エッジ量と、第1の特徴量検出部12から入力された映像において該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。
The feature
特徴量比較部15は、比較したエリアの累積エッジ量の差分が所定の閾値以上となった場合、当該第1の異物付着候補又は第2の異物付着候補に設定されたエリアを最終異物付着候補に設定する。特徴量比較部15は、最終異物付着候補が何れのエリアに設定されたか又は何れのエリアにも設定されていないことを示す情報を異物検出部16に出力する。
When the difference between the accumulated edge amounts of the compared areas becomes equal to or greater than a predetermined threshold value, the feature
異物検出部16は、特徴量比較部15から出力される情報に基づいて、最終異物付着候補に設定されたエリアのうちどのエリアに異物が付着しているかを検出する検出部である。
The foreign
異物検出部16は、分割されたエリアごとに、連続して最終異物付着候補に設定されている間その設定回数をカウントする最終異物付着候補カウンタを備える。なお、あるエリアが最終異物付着候補に設定される事象の連続性が途切れた場合、該エリアの最終異物付着候補カウンタのカウンタ値はリセットされる。
The foreign
異物検出部16は、あるエリアの最終異物付着候補カウンタのカウント値が所定の回数Nに達した場合、該エリアを異物付着エリアに設定する。また、異物検出部16は、異物付着エリアに設定されたエリアナンバーを第1の映像合成部19に出力する。
When the count value of the final foreign matter adhesion candidate counter in a certain area reaches a predetermined number N, the foreign
なお、ここでは、異物付着エリアに設定されたエリアを示す情報をエリアナンバーとして説明したが、これに限られない。例えば、エリアを示す情報は、異物付着エリアの位置を示す座標値であってもよい。 In addition, although the information which shows the area set to the foreign material adhesion area was demonstrated as an area number here, it is not restricted to this. For example, the information indicating the area may be coordinate values indicating the position of the foreign matter adhesion area.
第3の映像抽出部17は、第1の撮像部1によって撮像された映像と第2の撮像部2によって撮像された映像とを合成するために、第1の撮像部1によって撮像された映像から所望の映像を抽出する映像抽出部である。
The third
第3の映像抽出部17は、第1の撮像部1によって撮像された映像から所定の撮像範囲を映し出す映像を切り出す。また、第3の映像抽出部17は、切り出した映像の解像度の変更、画質の変更を行う。
The third
第4の映像抽出部18は、第2の撮像部2によって撮像された映像と第1の撮像部1によって撮像された映像とを合成するために、第2の撮像部2によって撮像された映像から所望の映像を抽出する映像抽出部である。
The fourth
第4の映像抽出部18は、第2の撮像部2によって撮像された映像から所定の撮像範囲の映像を切り出す。また、第4の映像抽出部18は、切り出された映像の解像度の変更、画質の変更を行う。
The fourth
第1の映像合成部19は、第3の映像抽出部17で抽出された映像と第4の映像抽出部18で抽出された映像とを合成した合成映像を生成する合成処理部である。
The first
第1の映像合成部19は、異物消去部10aにおいて異物付着エリアが検出された場合、検出された異物付着エリアの情報(エリアナンバー)に基づいて、第3の映像抽出部17で抽出された映像と第4の映像抽出部18で抽出された映像との合成状態を変更する。
When the foreign matter adhesion area is detected in the foreign
ここで、合成状態を変更するとは、第1の撮像部1で撮像された映像と第2の撮像部2で撮像された映像との合成映像が表示部4に出力されている状態において、第1の撮像部1で撮像された映像と第2の撮像部2で撮像された映像との表示面積割合、あるいは2つの映像を係数(α値)によって合成する際のα値を変更することである。また、合成状態を変更することには、第1の撮像部1で撮像された映像のみが表示部4に出力されている状態において、第1の撮像部1で撮像された映像に第2の撮像部2で撮像された映像を合成して出力することが含まれる。
Here, changing the composite state means that the composite video of the video captured by the
図3は、本発明の実施の形態に係る第1の映像合成部19が行う合成処理のイメージを示す図である。
FIG. 3 is a view showing an image of the combining process performed by the first
第1の映像合成部19は、第1の撮像部1(リアカメラ5)によって撮像された映像101と第2の撮像部2(右サイドカメラ6)によって撮像された映像102とを、例えば、左右に並べて合成する。
The first
第1の映像合成部19は、これらの映像の境界部付近において、アルファブレンドを行って映像の合成を行う。その際、図3に示すように、第1の映像合成部19は、第1の撮像部1によって撮像された映像101のα値を、第2の撮像部2によって撮像された映像102に向かうにしたがって減少させる。一方、第2の撮像部2によって撮像された映像102のα値を、第1の撮像部1によって撮像された映像101に向かうにしたがって増加させる。
The first
すなわち、第1の映像合成部19は、第1の撮像部1によって撮像された映像101と第2の撮像部2によって撮像された映像102とを合成処理する際、これらの映像の境界部分からの距離に応じて映像の透過率を変化させている。
That is, when the first
これにより、第1の映像合成部19は、第1の撮像部1で撮像された映像101と第2の撮像部2で撮像された映像102との境界部分が目立たないように映像の合成を行うことができる。
Thereby, the first
第1の撮像部1(リアカメラ5)によって撮像された映像101と第2の撮像部2(左サイドカメラ7)によって撮像された映像103との合成処理ついても同様に、これらの映像の境界部付近においてアルファブレンドを行うことにより、境界部分が目立たないように映像の合成を行うことができる。
Similarly, in the process of combining the
なお、第1の映像合成部19は、第1の映像抽出部11及び第2の映像抽出部13で抽出された映像を合成処理する際、合成映像の歪みなどを小さくするために、これらの映像の一部を回転、拡大、縮小するなどしてもよい。
The first
また、図3の中段に示した合成映像が表示部4に表示される際、第1の映像合成部19は、該合成映像の左右を反転させた映像データを表示部4に出力する。
When the composite video shown in the middle part of FIG. 3 is displayed on the display unit 4, the first
次に、異物消去部10aが行う異物検出処理について説明する。図4は、本発明の実施の形態1に係る異物検出処理の一例を示すフローチャートである。なお、図4では、ステップS10〜ステップS30までは、第1の映像抽出部11と第1の特徴量検出部12における処理を示しているが、第2の映像抽出部13と第2の特徴量検出部14においても同様の処理を行っているものとする。
Next, the foreign matter detection processing performed by the
まず、第1の映像抽出部11は、映像抽出処理(ステップS10)を実行する。第1の映像抽出部11における映像切り出し部11aは、映像抽出処理において、第1の撮像部1で撮像された映像から所定の撮像範囲の映像を切り出す。
First, the first
また、第1の映像抽出部11における解像度変更部11bは、映像抽出処理において、切り出した映像の解像度を変更する。
Further, the
また、第1の映像抽出部11における画質変更部11cは、映像抽出処理において、解像度を変更した映像の色調を変更する。
Further, the image
次に、第1の特徴量検出部12は、特徴量検出処理(ステップS20)を実行する。第1の特徴量検出部12は、特徴量検出処理において、第1の映像抽出部11で抽出された映像のエッジ検出を行い、検出されたエッジの累積エッジ量を検出する。
Next, the first feature
第1の特徴量検出部12は、特徴量検出処理において、まず、第1の映像抽出部11で抽出された映像をグレイスケールに変換する。次に、第1の特徴量検出部12は、Cannyフィルタを用いて、グレイスケールに変換された映像のエッジ検出を行う。また、第1の特徴量検出部12は、エッジ検出によって検出したエッジの累積処理を実行する。
In the feature amount detection process, the first feature
次に、第1の特徴量検出部12は、特徴量検出処理(ステップS20)がM回実行されたか否かを判定する(ステップS30)。特徴量検出処理が未だM回実行されていないと判定された場合(ステップS30においてNoの場合)、第1の映像抽出部11は、再び、映像抽出処理(ステップS10)を実行する。
Next, the first feature
特徴量検出処理がM回実行されたと判定された場合(ステップS30においてYesの場合)、特徴量比較部15は、異物付着候補判定処理(ステップS40)を実行する。このとき、特徴量検出処理の実行回数はリセットされる。
When it is determined that the feature amount detection process has been performed M times (in the case of Yes in step S30), the feature
特徴量比較部15は、異物付着候補判定処理において、第1の特徴量検出部12及び第2の特徴量検出部14から入力される映像を複数のエリアに分割する。特徴量比較部15は、分割したエリアごとに、累積された累積エッジ量を算出する。算出された累積エッジ量が所定の閾値以上である場合、特徴量比較部15は、該エリアを異物付着候補に設定する。
The feature
次に、特徴量比較部15は、分割されたエリアのうち、異物付着候補が設定されたエリアが存在するか否かを判定する(ステップS50)。
Next, the feature
異物付着候補判定処理において何れのエリアも異物付着候補に設定されていない場合(ステップS50においてNoの場合)、第1の映像抽出部11は、再び、映像抽出処理(ステップS10)を実行する。
If no area is set as a foreign substance adhesion candidate in the foreign substance adhesion candidate determination processing (No in step S50), the first
異物付着候補判定処理(ステップS40)において何れかのエリアが異物付着候補に設定されている場合(ステップS50においてYesの場合)、特徴量比較部15は、最終異物付着候補判定処理(ステップS60)を実行する。
If any area is set as a foreign substance adhesion candidate in the foreign substance adhesion candidate judgment processing (step S40) (if Yes in step S50), the feature
特徴量比較部15は、最終異物付着候補判定処理を実行する際、第1の特徴量検出部12から入力された映像における異物付着候補に設定されたエリアの累積エッジ量と、第2の特徴量検出部14から入力された映像における該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。また、特徴量比較部15は、第2の特徴量検出部14から入力された映像における異物付着候補に設定されたエリアの累積エッジ量と、第1の特徴量検出部12から入力された映像における該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。
When the feature
特徴量比較部15は、比較したエリアにおける累積エッジ量の差分が所定の閾値以上であった場合、当該異物付着候補に設定されていたエリアを最終異物付着候補に設定する。
If the difference between the accumulated edge amounts in the compared areas is equal to or greater than a predetermined threshold value, the feature
次に、特徴量比較部15は、分割されたエリアのうち、最終異物付着候補が設定されたエリアが存在するか否かを判定する(ステップS70)。
Next, the feature
最終異物付着候補判定処理において何れのエリアも最終異物付着候補に設定されていない場合(ステップS70においてNoの場合)、第1の映像抽出部11は、再び、映像抽出処理(ステップS10)を実行する。このとき、最終異物付着候補カウンタのカウンタ値はリセットされる。
In the final foreign matter adhesion candidate determination process, when any area is not set as the final foreign matter adhesion candidate (No in step S70), the first
最終異物付着候補判定処理において何れかのエリアが最終異物付着候補に設定されている場合(ステップS70においてYesの場合)、異物検出部16は、当該エリアの最終異物付着候補カウンタのカウンタ値が所定の回数Nに達したか否かを判定する(ステップS80)。
If any area is set as the final foreign matter adhesion candidate in the final foreign matter adhesion candidate determination processing (in the case of Yes in step S70), the foreign
最終異物付着候補カウンタのカウンタ値がNに達したエリアが存在しない場合(ステップS80においてNoの場合)、第1の映像抽出部11は、再び、映像抽出処理(ステップS10)を実行する。
If there is no area in which the counter value of the final foreign matter adhesion candidate counter reaches N (in the case of No in step S80), the first
一方、最終異物付着候補カウンタのカウンタ値がNに達したエリアが存在する場合(ステップS80においてYesの場合)、異物検出部16は、当該エリアを異物付着エリアに設定し(ステップS90)、異物検出処理を終了する。
On the other hand, if there is an area where the final foreign matter adhesion candidate counter value reaches N (if Yes at step S80), the foreign
なお、上述したとおり、あるエリアが最終異物付着候補に設定される事象の連続性が途切れた場合、該エリアの最終異物付着候補カウンタのカウンタ値はリセットされる。 As described above, when the continuity of the event that an area is set as the final foreign matter adhesion candidate is interrupted, the counter value of the final foreign matter adhesion candidate counter of the area is reset.
また、異物検出処理は、異物消去部10aに入力される映像の全てのフレームについて実行する必要はなく、映像処理装置10の処理能力に応じて、適当なフレーム間隔で実行すればよい。定数M及び定数Nの値も、求められる異物の検出精度に応じて、適宜設定すればよい。
Further, the foreign matter detection processing need not be performed for all the frames of the video input to the foreign
次に、異物検出処理によって異物付着エリアが設定された場合に、第1の映像合成部19において実行される映像の合成処理について説明する。図5は、本発明の実施の形態1に係る異物検出処理によって異物が検出された場合に表示部4に出力される合成映像のイメージの一例を示す図である。
Next, when the foreign matter adhesion area is set by the foreign matter detection process, the video combining process performed in the first
図5の上段左側の図は、第1の撮像部1(リアカメラ5)によって撮像された映像101が表示部4に表示されているときに、第1の撮像部1によって撮像された映像101の左下部分に異物110が写り込んだ様子を示す表示映像の図である。
In the upper left of FIG. 5, the
図5の上段右側の図は、第1の撮像部によって撮像された映像101における左下部分が、第2の撮像部2(左サイドカメラ7)によって撮像された映像103に置き換えられた様子を示す表示映像の図である。
The drawing on the upper right of FIG. 5 shows that the lower left portion of the
図5の下段左側の図は、第1の撮像部1(リアカメラ5)によって撮像された映像101が表示部4に表示されているときに、第1の撮像部1によって撮像された映像101の右下部分に異物110が写り込んだ様子を示す表示映像の図である。
In the lower left of FIG. 5, the
図5の下段右側の図は、第1の撮像部1によって撮像された映像101における右下部分が、第2の撮像部2(右サイドカメラ6)によって撮像された映像102に置き換えられた様子を示す表示映像の図である。
In the lower right part of FIG. 5, the lower right portion of the
第1の撮像部1(リアカメラ5)によって撮像された映像101の左下部分が異物消去部10aにおいて異物付着エリアに設定された場合、第1の映像合成部19は、当該エリアの映像を第2の撮像部2(左サイドカメラ7)によって撮像された映像103に置き換える。
When the lower left portion of the
また、第1の撮像部1(リアカメラ5)によって撮像された映像101の右下部分が異物消去部10aにおいて異物付着エリアに設定された場合、第1の映像合成部19は、当該エリアの映像を第2の撮像部2(右サイドカメラ6)によって撮像された映像102に置き換える。
When the lower right portion of the
これにより、第1の撮像部1に付着した異物110によって視界が遮断されていた領域の映像を第2の撮像部2によって撮像された映像102,103に置き換えて表示部4に表示させることができる。
Thereby, the image of the area in which the field of view is blocked by the
図6は、本発明の実施の形態1に係る異物検出処理によって異物が検出された場合に表示部4に出力される合成映像のイメージの別の例を示す図である。 FIG. 6 is a view showing another example of the image of the composite image output to the display unit 4 when the foreign matter is detected by the foreign matter detection processing according to the first embodiment of the present invention.
図6の上段左側の図は、第1の撮像部1(リアカメラ5)によって撮像された映像101と第2の撮像部2(右サイドカメラ6)によって撮像された映像102の合成映像を表示部4に表示させているときに、第2の撮像部2(右サイドカメラ6)によって撮像された映像102の左下部分に異物110が写り込んだ様子を示す表示映像の図である。
In the upper left of FIG. 6, a composite image of the
図6の上段右側の図は、第2の撮像部2(右サイドカメラ6)によって撮像された映像102の左側部分が、第1の撮像部1(リアカメラ5)によって撮像された映像101に置き換えられた様子を示す表示映像の図である。
The left side of the
図6の下段左側の図は、第1の撮像部1(リアカメラ5)によって撮像された映像101と第2の撮像部2(左サイドカメラ7)によって撮像された映像103の合成映像を表示部4に表示させているときに、第2の撮像部2によって撮像された映像103の右下部分に異物110が写り込んだ様子を示す表示映像の図である。
The lower left side of FIG. 6 displays a composite image of the
図6の下段右側の図は、第2の撮像部2(左サイドカメラ7)によって撮像された映像103の右側部分が、第1の撮像部1(リアカメラ5)によって撮像された映像101に置き換えられた様子を示す表示映像の図である。
In the lower right part of FIG. 6, the right part of the
第2の撮像部2(右サイドカメラ6)によって撮像された映像102の左下部分が異物付着エリアに設定された場合、第1の映像合成部19は、合成映像の面積割合を変える(境界部分を移動させる)ことにより、当該エリアの映像を第1の撮像部1(リアカメラ5)によって撮像された映像101に置き換える。
When the lower left portion of the
また、第2の撮像部2(左サイドカメラ7)によって撮像された映像103の右下部分が異物付着エリアに設定された場合、第1の映像合成部19は、合成映像の面積割合を変えることにより、当該エリアの映像を第1の撮像部1(リアカメラ5)によって撮像された映像101に置き換える。
In addition, when the lower right portion of the
これにより、第2の撮像部2に付着した異物によって視界が遮断されていた領域の映像を第1の撮像部1によって撮像された映像101に置き換えて表示部4に表示させることができる。
As a result, it is possible to replace the image of the area in which the field of view is blocked by the foreign matter attached to the
なお、本発明の実施の形態1では、特徴量比較部15と異物検出部16とを別々に設けたが、これらを一つの比較検出部として、特徴量比較部15及び異物検出部16と同様の機能を持たせてもよい。
In the first embodiment of the present invention, the feature
(実施の形態2)
次に、本発明の実施の形態2について説明する。図7は、本発明の実施の形態2に係る各部の機能の一例を示すブロック図である。
Second Embodiment
Next, a second embodiment of the present invention will be described. FIG. 7 is a block diagram showing an example of the function of each unit according to
本発明の実施の形態2に係る映像処理システムは、第1の撮像部1と、第2の撮像部2と、第3の撮像部21と、第4の撮像部22と、映像処理装置20と、表示部4と、を備える。
The video processing system according to
映像処理装置20は、異物消去部20aと、第3の映像抽出部17と、第4の映像抽出部18と、第7の映像抽出部33と、第8の映像抽出部34と、第1の映像合成部19と、を備える。第7の映像抽出部33と第8の映像抽出部34は、第3の映像抽出部17と第4の映像抽出部18と同様の機能をもつ映像抽出部である。
The
異物消去部20aは、第1の映像抽出部11と、第2の映像抽出部13と、第5の映像抽出部25と、第6の映像抽出部27と、を備える。また、異物消去部20aは、第1の特徴量検出部12と、第2の特徴量検出部14と、第3の特徴量検出部26と、第4の特徴量検出部28と、特徴量比較部15と、異物検出部16と、を備える。
The foreign
第5の映像抽出部25と第6の映像抽出部27は、第1の映像抽出部11と第2の映像抽出部13と同じ機能をもつ映像抽出部である。また、第3の特徴量検出部26と第4の特徴量検出部28は、第1の特徴量検出部12と第2の特徴量検出部14と同じ機能をもつ特徴量検出部である。
The fifth
すなわち、本発明の実施の形態2に係る映像処理システムは、実施の形態1に係る映像処理システムの構成に、第3の撮像部21及び第4の撮像部22と、これらに対応する映像抽出部25,27及び特徴量検出部26,28とを付加したものである。
That is, in the video processing system according to the second embodiment of the present invention, in addition to the configuration of the video processing system according to the first embodiment, the
ここで、第1の撮像部1は、例えば、リアカメラ5である。第2の撮像部2は、例えば、右サイドカメラ6である。第3の撮像部21は、例えば、左サイドカメラ7である。第4の撮像部22は、例えば、バックカメラ8である。
Here, the
本発明の実施の形態2では、本発明の実施の形態1と同様に、図4に示した異物検出処理によって異物付着エリアを検出する。ただし、最終異物付着候補判定処理(ステップS60)における累積エッジ量は、異物付着候補に設定されたエリアと複数の他の特徴量検出部から入力された映像における該エリアと同じエリアナンバーが付されたエリア(対応エリア)との間で比較される。 In the second embodiment of the present invention, as in the first embodiment of the present invention, the foreign matter adhesion area is detected by the foreign matter detection processing shown in FIG. However, the cumulative edge amount in the final foreign matter adhesion candidate determination process (step S60) is the same as the area number in the area set as the foreign matter adhesion candidate and the image input from the plurality of other feature quantity detection units Are compared with other areas (corresponding areas).
そして、異物付着候補に設定されたエリアの累積エッジ量と複数の他の特徴量検出部から入力された映像における対応エリアの量累積エッジ量との差分が所定の閾値以上であった場合、当該異物付着候補に設定されていたエリアを最終異物付着候補に設定する。 Then, when the difference between the accumulated edge amount of the area set as the foreign matter adhesion candidate and the amount accumulated edge amount of the corresponding area in the video input from the plurality of other feature amount detection units is equal to or more than a predetermined threshold, The area set as the foreign matter adhesion candidate is set as the final foreign matter adhesion candidate.
そして、異物付着エリア設定処理(ステップS90)において異物付着エリアが設定された場合、第1の映像合成部19は、検出された異物付着エリアの情報に基づいて、第3の映像抽出部17、第4の映像抽出部18、第7の映像抽出部33及び第8の映像抽出部34において抽出された映像の合成処理を行う。
Then, when the foreign matter adhesion area is set in the foreign matter adhesion area setting processing (step S90), the first
次に、本発明の実施の形態2に係る第1の映像合成部19が行う合成処理によって出力される映像について説明する。図8は、本発明の実施の形態2に係る異物検出処理によって異物が検出された場合に表示部4に出力される合成映像のイメージを示す図である。
Next, an image output by the combining process performed by the first
図8では、特徴量比較部15において、入力された映像を3行4列からなる12のエリアに分割した様子を示す。
FIG. 8 illustrates the feature
図8の左側の図は、第1の撮像部1(リアカメラ5)によって撮像された映像101が表示部4に表示されているときに、該映像101における第1行第1列〜第3列、第2行第1列並びに第3行第3列及び第4列に位置するエリアに異物110が写り込んだ様子を示す表示映像の図である。
On the left side of FIG. 8, when the
図8の右側の図は、第1の撮像部1によって撮像された映像101における第1行第1列及び第2列並びに第2行第1列のエリアが、第3の撮像部21(左サイドカメラ7)によって撮像された映像103に置き換えられた様子を示す表示映像の図である。また、図8の右側の図は、第1の撮像部によって撮像された映像101における第1行第3列並びに第3行第3列及び第4列のエリアが、第2の撮像部2(右サイドカメラ6)によって撮像された映像102に置き換えられた様子を示す表示映像の図である。
The right side of FIG. 8 shows that the area of the first row and the first column and the second column and the second row and the first column in the
第1の映像合成部19は、第1の撮像部によって撮像された映像101における第1行第1列及び第2列並びに第2行第1列に位置するエリアを、第3の撮像部21(左サイドカメラ7)によって撮像された映像103に置き換える。また、第1の映像合成部19は、第1の撮像部によって撮像された映像101における第1行目第3列並びに第3行目第3列及び第4列に位置するエリアを、第2の撮像部2(右サイドカメラ6)によって撮像された映像102に置き換える。
The first
これにより、第1の撮像部1に付着した異物によって視界が遮断されていた領域を第2の撮像部2及び第3の撮像部21によって撮像された映像102,103に置き換えて表示部4に表示させることができる。
As a result, the area where the field of view is blocked by the foreign matter attached to the
なお、ここでは、第1の撮像部1によって撮像された映像を第4の撮像部22によって撮像された映像に置き換えていないが、第1の撮像部1によって撮像された映像101を第4の撮像部22によって撮像された映像に置き換えてもよい。
Although the video captured by the
(実施の形態3)
次に、本発明の実施の形態3について説明する。図9は、本発明の実施の形態3に係る各部の機能の一例を示すブロック図である。
Third Embodiment
Next, a third embodiment of the present invention will be described. FIG. 9 is a block diagram showing an example of the function of each unit according to
本発明の実施の形態3は、実施の形態2における第2の特徴量検出部14及び第3の特徴量検出部26に代えて、第2の映像合成部45と第5の特徴量検出部46とを備えている。ただし、実施の形態3に係る説明を理解しやすくするため、図9では、第4の撮像部22、第6の映像抽出部27、第8の映像抽出部34及び第4の特徴量検出部28の図示を省略し、これらについての説明を省略する。
In the third embodiment of the present invention, a second
本発明の実施の形態3に係る映像システムは、第1の撮像部1と、第2の撮像部2と、第3の撮像部21と、映像処理装置40と、表示部4と、を備える。
The video system according to
第1の撮像部1は、リアカメラ5であり、第2の撮像部2は、右サイドカメラ6であり、第3の撮像部21は、左サイドカメラ7である。
The
映像処理装置40は、異物消去部40aと、第3の映像抽出部17と、第4の映像抽出部18と、第7の映像抽出部33と、第1の映像合成部19と、を備える。
The
異物消去部40aは、第1の映像抽出部11と、第2の映像抽出部13と、第5の映像抽出部25と、第1の特徴量検出部12と、第2の映像合成部45と、第5の特徴量検出部46と、特徴量比較部15と、異物検出部16と、を備える。
The
ここで、実施の形態3に係る映像システムの特徴部分である第2の映像合成部45と第5の特徴量検出部46について説明する。
Here, the second
第2の映像合成部45は、第2の映像抽出部13において抽出された映像及び第5の映像抽出部25において抽出された映像を合成処理する合成処理部である。第2の映像合成部45は、第1の映像合成部19において行われる合成処理と同様、合成映像の境界部付近において映像のアルファブレンドを行うことにより、二つの映像の境界部分が目立たないように映像の合成処理を行う。
The second
また、第2の映像合成部45は、第2の映像抽出部13及び第5の映像抽出部25で抽出された映像を合成処理する際、合成映像の歪みなどを小さくするために、これらの映像の一部について回転、拡大、縮小などの処理を行う。
In addition, when the second
第5の特徴量検出部46は、第1の特徴量検出部12と同様の処理により、第2の映像合成部45において合成された合成映像のエッジ検出を行い、検出されたエッジの累積エッジ量を検出する。
The fifth
次に、本発明の実施の形態3に係る映像処理システムが実行する異物検出処理について説明する。 Next, foreign object detection processing executed by the video processing system according to the third embodiment of the present invention will be described.
図10は、本発明の実施の形態3に係る異物検出処理の一例を示すフローチャートである。図10では、第1の映像抽出部11と第1の特徴量検出部12が実行する処理について省略しているが、これらは、実施の形態1で説明した処理を行っているものとする。また、図10では、第5の映像抽出部25が実行する処理について省略しているが、第5の映像抽出部25は、第2の映像抽出部13と同様の処理を行っているものとする。
FIG. 10 is a flowchart showing an example of the foreign matter detection process according to the third embodiment of the present invention. Although the process performed by the first
まず、第2の映像抽出部13は、映像抽出処理(ステップS10)を実行する。第2の映像抽出部13における映像切り出し部13aは、映像抽出処理において、第2の撮像部2で撮像された撮像映像から所定の撮像範囲の映像を切り出す。
First, the second
また、第2の映像抽出部13における解像度変更部13bは、映像抽出処理において、切り出した映像の解像度を変更する。
Further, the
また、第2の映像抽出部13における画質変更部13cは、映像抽出処理において、解像度を変更した映像の色調を変更する。
Further, the image
次に、第2の映像合成部45は、第2の映像抽出部13において抽出された映像と第5の映像抽出部25において抽出された映像を合成処理する(ステップS15)。
Next, the second
次に、第5の特徴量検出部46は、特徴量検出処理(ステップS20)を実行する。特徴量検出処理(ステップS20)では、第2の映像合成部45で合成処理された映像のエッジ検出を行い、検出されたエッジの累積エッジ量を検出する。
Next, the fifth feature
次に、第5の特徴量検出部46は、特徴量検出処理(ステップS20)がM回実行されたか否かを判定する(ステップS30)。特徴量検出処理が未だM回実行されていないと判定された場合(ステップS30においてNoの場合)、第2の映像抽出部13は、再び、映像抽出処理(ステップS10)を実行する。
Next, the fifth feature
特徴量検出処理がM回実行されたと判定された場合(ステップS30においてYesの場合)、特徴量比較部15は、異物付着候補判定処理(ステップS40)を実行する。このとき、特徴量検出処理の実行回数のカウント数はリセットされる。
When it is determined that the feature amount detection process has been performed M times (in the case of Yes in step S30), the feature
特徴量比較部15は、異物付着候補判定処理において、第1の特徴量検出部12及び第5の特徴量検出部46から入力される映像を複数のエリアに分割する。特徴量比較部15は、分割したエリアごとに、累積された累積エッジ量を算出する。算出された累積エッジ量が所定の閾値以上である場合、特徴量比較部15は、該エリアを異物付着候補に設定する。
The feature
次に、特徴量比較部15は、分割されたエリアのうち、異物付着候補が設定されたエリアが存在するか否かを判定する(ステップS50)
Next, the feature
異物付着候補判定処理において何れのエリアも異物付着候補に設定されていない場合(ステップS50においてNoの場合)、第2の映像抽出部13は、再び、映像抽出処理(ステップS10)を実行する。
If any area is not set as a foreign matter adhesion candidate in the foreign matter adhesion candidate determination process (No in step S50), the second
異物付着候補判定処理(ステップS40)において何れかのエリアが異物付着候補に設定されている場合(ステップS50においてYesの場合)、特徴量比較部15は、最終異物付着候補判定処理(ステップS60)を実行する。
If any area is set as a foreign substance adhesion candidate in the foreign substance adhesion candidate judgment processing (step S40) (if Yes in step S50), the feature
特徴量比較部15は、最終異物付着候補判定処理において、第1の特徴量検出部12から入力された映像における異物付着候補に設定されたエリアの累積エッジ量と、第5の特徴量検出部46から入力された映像における該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。また、特徴量比較部15は、第5の特徴量検出部46から入力された映像における異物付着候補に設定されたエリアの累積エッジ量と、第1の特徴量検出部12から入力された映像における該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。
The feature
特徴量比較部15は、比較したエリアにおける累積エッジ量の差分が所定の閾値以上であった場合、当該異物付着候補に設定されていたエリアを最終異物付着候補に設定する。
If the difference between the accumulated edge amounts in the compared areas is equal to or greater than a predetermined threshold value, the feature
次に、特徴量比較部15は、分割されたエリアのうち、最終異物付着候補が設定されたエリアが存在するか否かを判定する(ステップS70)。
Next, the feature
最終異物付着候補判定処理において何れのエリアも最終異物付着候補に設定されていない場合(ステップS70においてNoの場合)、第2の映像抽出部13は、再び、映像抽出処理(ステップS10)を実行する。このとき、最終異物付着候補カウンタのカウンタ値はリセットされる。
If any area is not set as the final foreign matter adhesion candidate in the final foreign matter adhesion candidate determination process (No in step S70), the second
最終異物付着候補判定処理において何れかのエリアが最終異物付着候補に設定されている場合(ステップS70においてYesの場合)、異物検出部16は、当該エリアの最終異物付着候補カウンタのカウンタ値が所定の回数Nに達したか否かを判定する(ステップS80)。
If any area is set as the final foreign matter adhesion candidate in the final foreign matter adhesion candidate determination processing (in the case of Yes in step S70), the foreign
最終異物付着候補カウンタのカウンタ値がNに達したエリアが存在しない場合(ステップS80においてNoの場合)、第1の映像抽出部11は、再び、映像抽出処理(ステップS10)を実行する。
If there is no area in which the counter value of the final foreign matter adhesion candidate counter reaches N (in the case of No in step S80), the first
一方、最終異物付着候補カウンタの値がNに達したエリアが存在する場合(ステップS80においてYesの場合)、異物検出部16は、当該エリアを異物付着エリアに設定し、異物検出処理を終了する。
On the other hand, when there is an area in which the value of the final foreign matter adhesion candidate counter reaches N (in the case of Yes in step S80), the foreign
なお、あるエリアが最終異物付着候補に設定される事象の連続性が途切れた場合、該エリアの最終異物付着候補カウンタのカウンタ値はリセットされる。 When the continuity of the event in which an area is set as the final foreign matter adhesion candidate is interrupted, the counter value of the final foreign matter adhesion candidate counter of the area is reset.
また、異物検出処理は、異物消去部40aに入力される映像の全てのフレームについて実行する必要はなく、映像処理装置40の処理能力に応じて、適当なフレーム間隔で実行すればよい。定数M及び定数Nの値も、求められる異物の検出精度に応じて、適宜設定すればよい。
Further, the foreign matter detection processing need not be performed for all the frames of the video input to the foreign
本発明の実施の形態3では、特徴量比較部15において異物付着候補判定処理及び最終異物付着候補判定処理を実行する前に、第2の映像合成部45において映像の合成処理を行っている。
In the third embodiment of the present invention, the second
すなわち、右サイドカメラ6から入力された映像と左サイドカメラ7から入力された映像の合成処理を行った合成映像と、リアカメラ5から入力された映像との比較を行っている。この場合、特徴量比較部15において、リアカメラ5から入力された映像と右サイドカメラ6から入力された映像及びリアカメラ5から入力された映像と左サイドカメラ7から入力された映像とを別々に比較するよりも、映像処理装置40の処理負荷を低減することができる。
That is, a comparison is made between the composite image obtained by subjecting the video input from the right side camera 6 and the video input from the left side camera 7 to the video input from the
なお、本発明の実施の形態では、撮像部を二つ、三つ又は四つ設けた形態を示したが、撮像部の数はこれに限られず、さらに別の撮像部を設けてもよい。 Although the embodiment in which two, three, or four imaging units are provided is shown in the embodiment of the present invention, the number of imaging units is not limited to this, and another imaging unit may be provided.
また、本発明の実施の形態では、撮像部によって撮像された映像に不具合がある場合として、撮像部のカメラのレンズに汚れが付着した場合を例示したが、これに限られるものではない。例えば、映像の周波数の乱れによって映像が不鮮明になった場合なども含まれる。 Further, in the embodiment of the present invention, as the case where there is a defect in the image captured by the imaging unit, the case where the dirt adheres to the lens of the camera of the imaging unit is exemplified, but the present invention is not limited thereto. For example, the case where the image becomes unclear due to the disturbance of the frequency of the image is included.
また、撮像部によって撮像された映像に不具合がある場合、そのことをユーザに報知するようにしてもよい。例えば、リアカメラ5のレンズに汚れが付着し、汚れが付着した部分が映し出す映像を右サイドカメラ6によって撮像された映像に置き換えた場合、そのことを表示部4に表示させてもよい。
In addition, when there is a defect in the image captured by the imaging unit, the user may be notified of that. For example, when an image on which dirt is attached to the lens of the
また、異物検出処理によって検出した異物を、エアやウォッシャー液などを用いて自動で洗浄するようにしてもよい。 Further, foreign matter detected by the foreign matter detection processing may be automatically cleaned using air, washer fluid or the like.
本発明は、移動体に搭載される撮像部によって撮像された映像の映像処理に広く利用可能である。 INDUSTRIAL APPLICABILITY The present invention is widely applicable to video processing of video captured by an imaging unit mounted on a mobile object.
1 第1の撮像部
2 第2の撮像部
4 表示部
5 リアカメラ
6 右サイドカメラ
7 左サイドカメラ
8 バックカメラ
10 映像処理装置
10a 異物消去部
11 第1の映像抽出部
11a 映像切り出し部
11b 解像度変更部
11c 画質変更部
12 第1の特徴量検出部
13 第2の映像抽出部
13a 映像切り出し部
13b 解像度変更部
13c 画質変更部
14 第2の特徴量検出部
15 特徴量比較部
16 異物検出部
17 第3の映像抽出部
18 第4の映像抽出部
19 第1の映像合成部
20 映像処理装置
20a 異物消去部
21 第3の撮像部
22 第4の撮像部
25 第5の映像抽出部
25a 映像切り出し部
25b 解像度変更部
25c 画質変更部
26 第3の特徴量検出部
27 第6の映像抽出部
28 第4の特徴量検出部
33 第7の映像抽出部
34 第8の映像抽出部
40 映像処理装置
40a 異物消去部
45 第2の映像合成部
46 第5の特徴量検出部
101 第1の撮像部によって撮像された映像
102 第2の撮像部によって撮像された映像
103 第2の撮像部によって撮像された映像
DESCRIPTION OF
Claims (14)
前記複数の撮像部のうちの第1の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第1の特徴量検出部と、
前記複数の撮像部のうちの前記第1の撮像部以外の撮像部が撮像した映像における少なくとも前記第1の撮像範囲の映像から前記特徴量を検出する第2の特徴量検出部と、
前記第1の特徴量検出部で検出された前記第1の撮像範囲の特徴量と前記第2の特徴量検出部で検出された前記第1の撮像範囲の特徴量とを比較して、前記第1の撮像部で撮像された映像に含まれる不具合領域及び前記第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出部と、
を備えたことを特徴とする映像処理システム。 A plurality of imaging units installed on the mobile object;
A first feature amount detection unit that detects a feature amount from an image of at least a first imaging range in an image captured by a first imaging unit of the plurality of imaging units;
A second feature amount detection unit that detects the feature amount from an image of at least the first imaging range in an image captured by an imaging unit other than the first imaging unit among the plurality of imaging units;
The feature amount of the first imaging range detected by the first feature amount detection unit is compared with the feature amount of the first imaging range detected by the second feature amount detection unit, Feature amount comparison detection for detecting at least one of a defect area included in a video captured by a first imaging unit and a defect area included in a video captured by an imaging unit other than the first imaging unit Department,
A video processing system comprising:
前記第2の撮像部が撮像した映像から第2の映像を抽出する第2の映像抽出部と、を備え、
前記第1の映像抽出部と前記第2の映像抽出部は、前記第1の映像と前記第2の映像の画質又は前記特徴量を検出する範囲が一致するように前記第1の映像と前記第2の映像を抽出することを特徴とする請求項2に記載の映像処理システム。 A first video extraction unit that extracts a first video from the video captured by the first imaging unit;
And a second video extraction unit that extracts a second video from the video captured by the second imaging unit.
The first video extraction unit and the second video extraction unit may be configured to match the image quality of the first video and the second video or the detection range of the feature amount. The image processing system according to claim 2, wherein the second image is extracted.
前記第1の映像合成部は、前記特徴量比較検出部によって前記第1の撮像部で撮像された映像に前記不具合領域が検出された場合、前記第1の撮像部で撮像された映像に含まれる前記不具合領域を前記第2の撮像部で撮像された映像に置き換えるように、または、前記第2の撮像部で撮像された映像に含まれる前記不具合領域を前記第1の撮像部で撮像された映像に置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像との合成状態を変更することを特徴とする請求項2又は3に記載の映像処理システム。 And a first video combining unit that combines the video captured by the first imaging unit and the video captured by the second imaging unit.
The first image combining unit is included in the image captured by the first imaging unit when the defect area is detected in the image captured by the first imaging unit by the feature amount comparison detection unit. The first imaging unit to capture the defective area included in the image captured by the second imaging unit so as to replace the defective area to be replaced with the image captured by the second imaging unit 4. The method according to claim 2, wherein a combination state of the video captured by the first imaging unit and the video captured by the second imaging unit is changed so as to replace the video with the selected video. Video processing system.
前記第1の映像合成部は、前記座標値を示す情報を用いて前記第1の撮像部が撮像した映像に含まれる前記不具合領域を前記第2の撮像部が撮像した映像に置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像とを合成した合成映像を生成することを特徴とする請求項2〜4の何れか1項に記載の映像処理システム。 The feature amount comparison and detection unit outputs information indicating coordinate values of the defect area included in the image captured by the first imaging unit,
The first video synthesis unit may replace the defect area included in the video captured by the first imaging unit with the video captured by the second imaging unit using the information indicating the coordinate value. 5. The composite image according to any one of claims 2 to 4, wherein the composite video is generated by combining the video captured by the first imaging unit and the video captured by the second imaging unit. Video processing system.
前記第1の映像合成部は、前記座標値を示す情報用いて、前記不具合領域を置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像との表示面積割合を変化させることを特徴とする請求項2〜4の何れか1項に記載の映像処理システム。 The feature amount comparison and detection unit may include information indicating coordinate values of the defect area included in the image captured by the first imaging unit or the coordinates of the defect area included in the image captured by the second imaging unit. Output information indicating the value,
The first video synthesis unit uses the information indicating the coordinate value to replace the defective area, the video captured by the first imaging unit and the video captured by the second imaging unit The image processing system according to any one of claims 2 to 4, wherein the display area ratio of is changed.
前記第1の撮像部で撮像された映像、前記第2の撮像部で撮像された映像及び前記第3の撮像部で撮像された映像を合成する第1の映像合成部とを備え、
前記第1の映像合成部は、
前記特徴量比較検出部によって前記第1の撮像部で撮像された映像に前記不具合領域が検出された場合、前記第1の撮像部で撮像された映像に含まれる前記不具合領域を前記第2の撮像部又は第3の撮像部で撮像された映像に置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像と前記第3の撮像部で撮像された映像との合成状態を変更し、
前記特徴量比較検出部によって前記第2の撮像部で撮像された映像に前記不具合領域が検出された場合、前記第2の撮像部で撮像された映像に含まれる前記不具合領域を前記第1の撮像部又は第3の撮像部で撮像された映像に置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像と前記第3の撮像部で撮像された映像との合成状態を変更し、
前記特徴量比較検出部によって前記第3の撮像部で撮像された映像に前記不具合領域が検出された場合、前記第3の撮像部で撮像された映像に含まれる前記不具合領域を前記第1の撮像部又は第2の撮像部で撮像された映像に置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像と前記第3の撮像部で撮像された映像との合成状態を変更することを特徴とする請求項1に記載の映像処理システム。 The imaging units other than the first imaging unit are a second imaging unit and a third imaging unit,
And a first video combining unit that combines the video captured by the first imaging unit, the video captured by the second imaging unit, and the video captured by the third imaging unit.
The first video synthesis unit
When the defect area is detected in the image captured by the first imaging unit by the feature amount comparison detection unit, the defect area included in the image captured by the first imaging unit is the second defect area The image captured by the first imaging unit, the image captured by the second imaging unit, and the image captured by the third imaging unit so as to replace the image captured by the imaging unit or the third imaging unit Change the composite state with the selected video,
When the defect area is detected in the image captured by the second imaging unit by the feature amount comparison detection unit, the defect area included in the image captured by the second imaging unit is the first defect area The image captured by the first imaging unit, the image captured by the second imaging unit, and the image captured by the third imaging unit so as to replace the image captured by the imaging unit or the third imaging unit Change the composite state with the selected video,
When the defect area is detected in the image captured by the third imaging unit by the feature amount comparison detection unit, the defect area included in the image captured by the third imaging unit is the first defect area The image captured by the first imaging unit, the image captured by the second imaging unit, and the image captured by the third imaging unit so as to replace the image captured by the imaging unit or the second imaging unit The image processing system according to claim 1, wherein the combination state with the selected image is changed.
前記特徴量比較検出部は、前記第1の撮像部で撮像された映像に含まれる前記不具合領域及び前記合成された映像に含まれる前記不具合領域のうち、少なくとも何れか一方を検出することを特徴とする請求項1に記載の映像処理システム。 The second feature amount detection unit is configured to generate at least the image obtained by combining the images captured by the second and third imaging units other than the first imaging unit among the plurality of imaging units. Detecting the feature amount from the image of the first imaging range;
The feature amount comparison and detection unit detects at least one of the defect area included in the image captured by the first imaging unit and the defect area included in the combined image. The image processing system according to claim 1.
前記複数の撮像部のうちの前記第1の撮像部以外の撮像部が撮像した映像における少なくとも前記第1の撮像範囲の映像から前記特徴量を検出する第2の特徴量検出部と、
前記第1の特徴量検出部で検出された前記第1の撮像範囲の特徴量と前記第2の特徴量検出部で検出された前記第1の撮像範囲の特徴量とを比較して、前記第1の撮像部で撮像された映像に含まれる不具合領域及び前記第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出部と、
を備えたことを特徴とする映像処理装置。 A first feature amount detection unit that detects a feature amount from an image of at least a first imaging range in an image captured by a first imaging unit of the plurality of imaging units installed on the mobile object;
A second feature amount detection unit that detects the feature amount from an image of at least the first imaging range in an image captured by an imaging unit other than the first imaging unit among the plurality of imaging units;
The feature amount of the first imaging range detected by the first feature amount detection unit is compared with the feature amount of the first imaging range detected by the second feature amount detection unit, Feature amount comparison detection for detecting at least one of a defect area included in a video captured by a first imaging unit and a defect area included in a video captured by an imaging unit other than the first imaging unit Department,
An image processing apparatus comprising:
前記複数の撮像部のうちの前記第1の撮像部以外の撮像部が撮像した映像における少なくとも前記第1の撮像範囲の映像から前記特徴量を検出する第2の特徴量検出ステップと、
前記第1の特徴量検出ステップで検出された前記第1の撮像範囲の特徴量と前記第2の特徴量検出ステップで検出された前記第1の撮像範囲の特徴量とを比較して、前記第1の撮像部で撮像された映像に含まれる不具合領域及び前記第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出ステップと、
を備えたことを特徴とする映像処理方法。 A first feature amount detection step of detecting a feature amount from an image of at least a first imaging range in an image captured by a first imaging unit of the plurality of imaging units installed on the mobile object;
A second feature amount detection step of detecting the feature amount from an image of at least the first imaging range in an image captured by an imaging unit other than the first imaging unit among the plurality of imaging units;
The feature amount of the first imaging range detected in the first feature amount detection step is compared with the feature amount of the first imaging range detected in the second feature amount detection step, Feature amount comparison detection for detecting at least one of a defect area included in a video captured by a first imaging unit and a defect area included in a video captured by an imaging unit other than the first imaging unit Step and
A video processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017230632A JP2019102929A (en) | 2017-11-30 | 2017-11-30 | Video processing system, video processing apparatus, and video processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017230632A JP2019102929A (en) | 2017-11-30 | 2017-11-30 | Video processing system, video processing apparatus, and video processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019102929A true JP2019102929A (en) | 2019-06-24 |
Family
ID=66977282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017230632A Pending JP2019102929A (en) | 2017-11-30 | 2017-11-30 | Video processing system, video processing apparatus, and video processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019102929A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112298036A (en) * | 2019-07-26 | 2021-02-02 | 丰田自动车株式会社 | Electronic mirror system for vehicle |
JP2021051381A (en) * | 2019-09-20 | 2021-04-01 | 株式会社デンソーテン | Attached matter detection device and attached matter detection method |
WO2021193102A1 (en) * | 2020-03-24 | 2021-09-30 | 株式会社日立国際電気 | Imaging device, video processing device, and video processing method |
WO2021192373A1 (en) * | 2020-03-27 | 2021-09-30 | 株式会社Jvcケンウッド | Display control device, display control method, and program |
CN113844363A (en) * | 2020-06-26 | 2021-12-28 | 丰田自动车株式会社 | Vehicle periphery monitoring device, monitoring method, and non-transitory storage medium |
-
2017
- 2017-11-30 JP JP2017230632A patent/JP2019102929A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112298036A (en) * | 2019-07-26 | 2021-02-02 | 丰田自动车株式会社 | Electronic mirror system for vehicle |
JP2021022833A (en) * | 2019-07-26 | 2021-02-18 | トヨタ自動車株式会社 | Vehicle electronic mirror system |
JP7279566B2 (en) | 2019-07-26 | 2023-05-23 | トヨタ自動車株式会社 | Vehicle electronic mirror system |
CN112298036B (en) * | 2019-07-26 | 2023-08-11 | 丰田自动车株式会社 | Electronic mirror system for vehicle |
JP2021051381A (en) * | 2019-09-20 | 2021-04-01 | 株式会社デンソーテン | Attached matter detection device and attached matter detection method |
JP7200893B2 (en) | 2019-09-20 | 2023-01-10 | 株式会社デンソーテン | Attached matter detection device and attached matter detection method |
WO2021193102A1 (en) * | 2020-03-24 | 2021-09-30 | 株式会社日立国際電気 | Imaging device, video processing device, and video processing method |
JP7441304B2 (en) | 2020-03-24 | 2024-02-29 | 株式会社日立国際電気 | Imaging device, video processing device, and video processing method |
WO2021192373A1 (en) * | 2020-03-27 | 2021-09-30 | 株式会社Jvcケンウッド | Display control device, display control method, and program |
CN113844363A (en) * | 2020-06-26 | 2021-12-28 | 丰田自动车株式会社 | Vehicle periphery monitoring device, monitoring method, and non-transitory storage medium |
US11390218B2 (en) | 2020-06-26 | 2022-07-19 | Toyota Jidosha Kabushiki Kaisha | Vehicle periphery monitoring device, vehicle periphery monitoring method and non-transitory storage medium |
CN113844363B (en) * | 2020-06-26 | 2023-08-08 | 丰田自动车株式会社 | Vehicle periphery monitoring device, monitoring method, and non-transitory storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019102929A (en) | Video processing system, video processing apparatus, and video processing method | |
EP2351351B1 (en) | A method and a system for detecting the presence of an impediment on a lens of an image capture device to light passing through the lens of an image capture device | |
US7570286B2 (en) | System and method for creating composite images | |
JP4353127B2 (en) | Rain sensor | |
US10297014B2 (en) | Image processing device, monitoring system provided with same, and image processing method | |
US9669761B2 (en) | Around view monitoring apparatus and method thereof | |
CN103914810B (en) | Image super-resolution for dynamic rearview mirror | |
JP2005331929A5 (en) | ||
JPWO2015037273A1 (en) | Operation input device and method, program, and recording medium | |
EP3113107B1 (en) | Static soiling detection and correction | |
JP2018071994A (en) | Attached matter detection apparatus and attached matter detection method | |
JP2011250376A (en) | Vehicle periphery image display device | |
EP3107063A1 (en) | Method for processing camera images | |
US10242460B2 (en) | Imaging apparatus, car, and variation detection method | |
WO2018034304A1 (en) | Image processing system | |
EP3306522A1 (en) | Device for determining a region of interest on and/or within a vehicle windscreen | |
JP2018074191A (en) | On-vehicle video display system, on-vehicle video display method, and program | |
CN113276772A (en) | Automobile electronic exterior rearview mirror system and control method | |
EP3282420A1 (en) | Method and apparatus for soiling detection, image processing system and advanced driver assistance system | |
JP4599136B2 (en) | Image state determination apparatus, image state determination method, and image state determination program | |
US20240015269A1 (en) | Camera system, method for controlling the same, storage medium, and information processing apparatus | |
KR101728670B1 (en) | AVM system having a function of identifying foreign material on camera and method thereof | |
Huang et al. | Dust and reflection removal from videos captured in moving car | |
JP7219710B2 (en) | Method and apparatus for improving camera capture for driver assistance systems | |
JP2006107314A (en) | Image processor and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190625 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191018 |